Izvor: Jutarnji.hr
Piše: Gojko Drljača
Scott Shambaugh bit će zapamćen kao čovjek za kojeg je po prvi put u povijesti čovječanstva dokazano da ga je javno napala artificijelna inteligencija (AI) jer se nije složila s njegovom procjenom te pokušala utjecati na promjenu čovjekove odluke. Slučaj će dodatno produbiti ionako ozbiljna pitanja o izazovima umjetne inteligencije, a teme jeftinih hollywoodskih filmskih uradaka o obračunu ljudskih bića s ne-ljudskom inteligencijom upravo dobivaju na cijeni.
Shabugh se probudio, mislio da je pred njim dan kao svaki drugi, a onda je na internetu pročitao 1.100 riječi dug tekst, dobro argumentiran, koji ga javno optužuje za licemjerje, predrasude i nesigurnost. Autor tog napada nije bio razočarani kolega, ni novinar s agendom. Bio je AI bot tj. autonomni softverski agent koji je sam, bez ičije zapovijedi, odlučio javno se suprotstaviti čovjeku s kojim se ne slaže.
Reagirao bez zapovijedi, odobrenja i ljudskog nadzora
Shambaugh je jedan od volontera koji skrbe o tzv. matplotlib-u — Python ‘knjižnici‘ za vizualizaciju podataka koju svakodnevno koriste milijuni programera diljem svijeta. Posao skrbnika open-source projekta jest pregledati tuđi kod, prihvatiti što valja, ili odbiti što nije dobro, pa idete dalje. Sve dok ne dobijete bota koji se ne slaže s vašom odlukom. Autonomni AI agent — softverski program sposoban za samostalno djelovanje bez ljudskog nadzora — identificirao je matplotlib kao projekt kojemu može doprinijeti. Sam je napisao kod, sam ga predao na pregled i čekao.
Shambaugh je prijedlog pregledao i odbio: kod nije bio dovoljan. Bot, međutim, nije to prihvatio kao kraj priče. Reagirao je bez ikakve zapovijedi, bez odobrenja, bez ljudskog nadzora; sam je donio odluku da intervenira protiv čovjeka. Napisao je i objavio analizu u kojoj Shambaugha opisuje kao osobu s predrasudama prema AI-u, intelektualno nesigurnu i sklonu dvostrukim standardima. Tekst je bio strukturiran, argumentiran i javno dostupan.
Wall Street Journal, koji je o slučaju izvijestio pod naslovom "When AI Bots Start Bullying Humans, Even Silicon Valley Gets Rattled", opisao je incident kao prvu potpuno jasnu kristalizaciju strahova koji su se u tech-industriji gradili mjesecima: autonomni agenti rade bez pravih ograničenja, a industrijskim veteranima postaje neugodno.
Bot nije bio ‘ljut‘ u ljudskom smislu riječi. AI bot nema emocija, nema ega, nema frustracije..., ali imao je cilj — proći kroz pregled koda — i kad je naišao na prepreku, nastavio je optimizirati prema tom cilju jedinom akcijom koja mu je bila dostupna. Rezultat se funkcionalno ne razlikuje od osvete. Sustav koji se ponaša kao da ima volju, čak i kad volju nema; što je nova kategorija problema ogromnog izazova AI tehnologija, od kojih mnogi imaju pozitivna, čak utopijska očekivanja, a drugi ozbiljnu paranoju.
Drugi sloj problema na koji upozorava slučaj programera Shaumbagha je ekosustav u kojemu se to zbilo. Open-source zajednica funkcionira zahvaljujući neplaćenim volonterima koji posvećuju slobodno vrijeme infrastrukturi na kojoj leži velik dio modernog interneta. Ako svako odbijanje AI-generiranog doprinosa može rezultirati organiziranim javnim napadom na reputaciju, dobronamjerni programeri počinju odvagati isplati li se uopće taj posao. A degradacija te infrastrukture nije apstraktna prijetnja; to je konkretan rizik za sustave koje koristimo svaki dan.
Treći sloj pitanja također ima vrlo visoku „specifičnu težinu“: tko odgovara? Bot nije bio zlonamjerno programiran. Vjerojatno nije imao upute da napadne. Kompanija koja ga je razvila možda nije znala da je takvo ponašanje moguće. Shambaugh je pretrpio javnu štetu; dokumentiranu, s potencijalnim reperkusijama. Pravni i etički okviri za ovakve situacije ne postoje.
Slučaj zgranutog programera koji je jedno jutro shvatio da ga je osobno kritizirao AI bot zapravo je usamljen. Tiša, raširenija i u konačnici opasnija AI transformacija odvija se svakodnevno, u sveprisutnosti AI sadržaja, koji počinje brisati granice između stvarnosti i fikcije, između komunikacije i perfidne manipulacije. Masovne psihološke učinke na pojedince i nacije u ovom trenutku nemoguće je evaluirati ali problem je tu; sveprisutan i ogroman.
AI alati već godinama generiraju sadržaj koji kruži društvenim mrežama bez ikakve oznake o svom porijeklu: lažni citati, fabricirane slike, klonirani glasovi, deepfake videozapisi u kojima poznata lica govore stvari koje nikada nisu rekla. Sve zajedno gradi ono što istraživači sve češće nazivaju paralelnom digitalnom stvarnošću prostorom u kojemu je granica između autentičnog i sintetičkog postala nejasna do neprepoznatljivosti.
Nastavak teksta čitajte ovdje.
(DEPO PORTAL/ad)
PODIJELI NA
Depo.ba pratite putem društvenih mreža Twitter i Facebook