Nova istraživanja upozoravaju da se umjetnoj inteligenciji ne može uvijek vjerovati. Prema studiji Europske radiodifuzijske unije (EBU), najpopularniji chatbotovi poput ChatGPT-a, Claudea i Geminija redovito izmišljaju informacije i predstavljaju ih kao činjenice — ponekad i do 40 posto slučajeva.
Alarmantni rezultati testiranja
U istraživanju je sudjelovalo 68 javnih emitera iz 56 zemalja koji su testirali točnost i pouzdanost velikih jezičnih modela. Pokazalo se da AI sustavi često daju pogrešne odgovore, pogrešno tumače događaje i čak navode nepostojeće izvore.
Primjeri su zabrinjavajući: ChatGPT inzistira da je papa Franjo još uvijek živ, Microsoftov Copilot „ne zna“ da je Švedska članica NATO-a, dok Googleov Gemini tvrdi da je ponovni izbor Donalda Trumpa tek mogućnost.
Prema riječima Petera Poscha, ekonomista s Tehničkog sveučilišta u Dortmundu, najveći je problem u tome što „AI sustavi zvuče izuzetno uvjerljivo, iako često iznose potpune neistine“. Takve pogreške korisnici teško prepoznaju jer chatbotovi djeluju samouvjereno i koriste prirodan jezik.
Halucinacije – kad AI uvjerljivo laže
Znanstvenici ovaj fenomen nazivaju „halucinacijom umjetne inteligencije“.
To je pojava kada sustav generira sadržaj koji se doima logičnim i točnim, ali je potpuno izmišljen. Halucinacije se najčešće javljaju u slučajevima kada AI odgovara na lokalne teme, aktualne vijesti ili kompleksne društvene događaje koji zahtijevaju dublje razumijevanje konteksta.
Iako se AI modeli ne temelje na razumijevanju nego na predviđanju riječi na osnovi statističkih uzoraka, mnogi korisnici vjeruju da takvi sustavi „znaju“ o čemu govore. To je, upozoravaju stručnjaci, vrlo opasna zabluda.
Rizik za društvo i demokraciju
Sve više ljudi koristi chatbotove kao primarni izvor informacija, a posljedice su već vidljive. Dezinformacije koje generira umjetna inteligencija šire se brzinom društvenih mreža.
Učenici i studenti u svoje radove nesvjesno unose izmišljene podatke, a građani mogu donositi političke odluke temeljem lažnih tvrdnji. Takve pogreške ne ugrožavaju samo pojedince nego i povjerenje u demokratske procese.
Posebno je problematično što većina korisnika nije svjesna mogućnosti da AI može halucinirati. Iako platforme u uvjetima korištenja navode da su pogreške moguće, malo tko te dokumente zaista čita.
Šteta za medije i novinarstvo
EBU upozorava i na opasnost za ugled profesionalnih medija. Chatbotovi često tvrde da njihovi navodi potječu iz uglednih izvora poput ARD-a ili ZDF-a, iako ti mediji nikada nisu objavili takve informacije. Na taj način umjetna inteligencija ne samo da širi dezinformacije, nego i narušava povjerenje javnosti u tradicionalno novinarstvo.
Zašto AI griješi?
Stručnjaci ističu da uzrok nije u „zloj namjeri“ tehnologije, već u njezinoj prirodi.
Chatbotovi ne razumiju značenje onoga što pišu — oni matematički predviđaju najvjerojatniji slijed riječi. Nemaju pojmovno znanje, već samo prepoznaju obrasce. Zato se mogu činiti inteligentnima, ali im nedostaje sposobnost provjere istinitosti.
Tehnološke kompanije pokušavaju smanjiti broj pogrešaka integriranjem baza podataka i sustava za provjeru izvora. Međutim, kako navodi EBU, halucinacije ostaju neriješen temeljni problem umjetne inteligencije.
Kako izbjeći pogreške?
Europska radiodifuzijska unija preporučuje da korisnici ne uzimaju AI odgovore zdravo za gotovo. Važne informacije uvijek treba provjeriti kroz više izvora — osobito kad se radi o politici, zdravlju ili financijama.
Škole i fakulteti trebali bi uvesti programe medijske pismenosti koji uče studente kako prepoznati i ispraviti dezinformacije koje generira umjetna inteligencija.
Dok umjetna inteligencija ne postane pouzdanija, vrijedi jednostavno pravilo: AI može pomoći u kreativnom radu, ali nije zamjena za novinare, znanstvenike i urednike koji provjeravaju činjenice.
