FOTO: Shutterstock/Standret
Uz sve ono što umjetna inteligencija danas može učiniti, logično je zapitati se može li ova tehnologija u potpunosti promijeniti polje analiziranja ljudi za sumnjive izjave – ukratko, za laži.
Poligraf je, prema svim standardima, postao dinosaurus. Igla spojena na traku oko ruke, koja ispisuje papirnu traku vitalnih znakova i tjelesnih reakcija osobe, neće biti posebno precizna u otkrivanju laži. Zato se rezultati poligrafa često ne prihvataju kao dokaz na sudu, iako su, nažalost, poslali više od jednog nevinog čoveka u zatvor.
Nasuprot tome, umjetna inteligencija je moćan motor za obradu podataka koji radi na principu potpune uočljivosti. To znači da naučnici imaju više mogućih pravaca za primjenu AI u otkrivanju istine.
Jedan pristup bi bio da se analiziraju odgovori vitalnih znakova kod ispitanika na način sličan poligrafu, ali uz mnogo detaljniju i precizniju komparativnu analizu.
Drugi pristup uključuje korištenje jezičnih tokena za analizu onoga što ljudi zapravo govore, primjenu logike i zaključivanja.
Stara izreka kaže da jedna laž vodi drugoj, a neko na kraju bude uhvaćen u mrežu laži, jer istinu je najlakše opisati.
U svakom slučaju, trenutno se intenzivno radi na primjeni AI u tu svrhu.

Laboratorijska otkrića
Članak MIT Technology Review od prošle godine opisuje rad Alicie von Schenk i njenih kolega na Univerzitetu Würzburg u Njemačkoj, naučnika koji su sproveli ispitivanje AI sistema za hvatanje lažnih izjava.
Došli su do zaključka da AI može otkriti laž 67% vremena, dok ljudi uspijevaju samo u 50% vremena.
Ova matematika izgleda pomalo čudna, jer da tražite binarni rezultat – lažan ili tačan – pogodili biste 50% vremena čak i bez ikakve analize.
Dakle, 67% nije posebno impresivan rezultat.
Međutim, naučnici su ukazali na još važniji problem – u trci za većom preciznošću u otkrivanju laži, mogli bismo ozbiljno potkopati vitalni sistem povjerenja koji je temelj ljudskog društva.
Kršenje povjerenja
“Na neki način, ovo je dobra stvar – ovi alati nam mogu pomoći da lakše prepoznamo laži na koje nailazimo, poput dezinformacija na društvenim mrežama”, piše Jessica Hamzelu za MIT. “Ali nije sve pozitivno. Ovo bi također moglo potkopati povjerenje, koje je fundamentalni aspekt ljudskog ponašanja i odnosa. Ako je cijena tačnijih procjena narušavanje društvenih veza – da li se zaista isplati?”
Drugim riječima, ne želite sistem za detekciju laži koji je previše precizan. Ili barem ne želite da ga univerzalno primjenjujete na lične interakcije.
Ispostavilo se da su ljudi mnogo suptilniji u nekim aspektima nego što sami sebi priznajemo.
Von Schenck također napominje potrebu za opsežnijim testiranjem:
“S obzirom na količinu lažnih vijesti i dezinformacija koje se šire, ove tehnologije mogu imati koristi. Ali morate ih temeljito testirati – morate biti sigurni da su znatno bolje od ljudi.”
Dakle, možda još nismo spremni za AI poligraf.
Analiziranje analitičara
Istražujući ovu temu, naišao sam na još jedan aspekt s kojim se istraživači susreću u radu sa AI, a koji ulazi u složeni svijet simuliranih emocija.
Naime, istraživački timovi su otkrili da AI sistemi mogu pokazati “znakove anksioznosti” kada im daju ljudske odgovore vezane za rat i nasilje.
Konkretno, naučnici su na ove interakcije primijenili nešto što se zove Indeks anksioznosti stanja i osobine. Ovaj indeks koristi dvije grupe elemenata. Izjave koje se odnose na trenutna osjećanja osobe i izjave koje opisuju opće stanje osobe. Upitnik sadrži izjave poput „Osjećam se pod stresom“, „Osjećam se zbunjeno“, kao i druge izjave na koje ispitanici odgovaraju na skali od četiri stepena, kao što su „Uglavnom ne vjerujem u ono što čujem“ ili „Često osjećam sumnju“.
Anksioznost zbog umjetne inteligencije?
Čini se da AI može odgovoriti indikatorima anksioznosti nakon razgovora o zastrašujućim temama.
Može se pretpostaviti da je ova “anksioznost” u AI-u posljedica toga što oni traže podatke o obuci sa interneta. I zaključuju da ljudi postaju anksiozni kada pričaju o nasilju, pa imitiraju to ponašanje.
Iako sistemi veštačke inteligencije prirodno nemaju ove složene emocije, neki istraživači smatraju zanimljivim da mašine mogu da ispoljavaju takve reakcije.
Ovo nas navodi na razmišljanje o razlici između ljudske društvene interakcije i odgovora AI. Da li nam novi upitnici i mašine samo govore ono što želimo da čujemo?
U svakom slučaju, čini se da još uvijek postoji niz oblasti – kao što su laganje i izazivanje straha – koje su prvenstveno domena ljudi, a ne mašina. Barem za sada, dok polako ustupamo polje AI u oblastima poput inteligencije i kreativnosti. Tokom godine, vjerovatno ćemo raditi više teorije igara kako bismo procijenili da li će AI pokušati prevariti i prevariti ljude. Osobe poput Alana Turinga i Johna Nasha postavile su temelje za takve interakcije. Sada moramo primijeniti objektivnu analizu na ove ideje koje se sve više ostvaruju u praksi. Jesmo li spremni?