Világszerte több százmillió ember használ mesterséges intelligencián alapuló chatbotokat információs forrásként – a választási eredményektől a napi hírek összefoglalásáig. A ChatGPT-t önmagában heti 800 millió felhasználó veszi igénybe, sokan már a Google helyett is ezt használják. Azonban az Európai Műsorszolgáltatók Szövetségének (EBU) új kutatása szerint ez a bizalom veszélyes lehet – írja a Deutsche Welle.
A szervezet 68 közszolgálati műsorszolgáltatót képvisel 56 országból, és a legnépszerűbb MI-rendszerek megbízhatóságát vizsgálta. Az eredmények riasztóak: a ChatGPT, Claude, Gemini és más chatbotok válaszainak akár 40%-a kitaláció, amelyet valós tényként tálalnak.
Halucinációk – az MI meggyőző, de hamis állításai
A kutatás számos példát sorol fel. A ChatGPT például továbbra is azt állítja, hogy Ferenc pápa életben van. A Microsoft Copilot nem tudja, hogy Svédország NATO-tag, a Google Gemini pedig a „Trump újraválasztását” jövőbeli eseménynek tekinti – annak ellenére, hogy az már megtörtént.
„Ezek a rendszerek rendkívül meggyőzően hangzanak, miközben teljesen hamis dolgokat állítanak” – figyelmeztet Peter Posch, a Dortmundi Műszaki Egyetem közgazdásza. „Ez különösen veszélyes a tapasztalatlan felhasználók számára, akik nem tudják azonnal felismerni a hibát.”
A szakértők ezt a jelenséget „halucinációnak” nevezik – az MI logikusnak tűnő, de valótlan információkat „képzel el”. Ez leggyakrabban regionális hírek, aktuális események vagy összetett kérdések esetén fordul elő.
Veszély a demokráciára
A jelenség társadalmi következményei már most is érezhetők. A chatbotok által generált hamis információk gyorsan terjednek a közösségi médiában, mivel a felhasználók ellenőrzés nélkül osztják meg őket. A diákok és egyetemisták kitalált adatokat használnak dolgozataikban, a választók pedig hamis információk alapján dönthetnek politikai kérdésekben.
Sokan nincsenek tudatában annak, hogy az MI tévedhet. A legtöbben feltételezik, hogy a technológia objektív és tényalapú, pedig ez súlyos tévedés. Bár a szolgáltatások használati feltételei figyelmeztetnek a hibák lehetőségére, kevesen olvassák el ezeket.
Káros a média hitelességére is
A chatbotok gyakran hamisan hivatkoznak megbízható médiumokra – például a német ARD-re vagy ZDF-re –, állítva, hogy tőlük származnak a kitalált adatok. Ez hosszú távon rombolja a hiteles újságírásba vetett bizalmat, mivel a felhasználók nem tudják, hogy a forrás valójában nem létezik.
Az EBU tanulmánya több száz tényalapú kérdést tett fel a chatbotoknak történelem, tudomány és aktuális hírek témakörében. A hibaarány 15% és 40% között mozgott, és egyik rendszer sem volt teljesen megbízható.
Miért téved a mesterséges intelligencia?
A probléma az MI működési elvében rejlik. A chatbotok nem értik, amit mondanak – pusztán szöveges minták alapján jósolják meg, hogy mely szavak következnek egymás után. Nem rendelkeznek valós tudással vagy kontextuális megértéssel.
A technológiai vállalatok milliárdokat fektetnek a pontosság javításába, adatbázisok integrálásába és a források megjelölésének fejlesztésébe, de a „halucináció” továbbra is az MI egyik legnagyobb, megoldatlan gyengesége.
Mit tehetnek a felhasználók?
Az EBU szerint a chatbotok használatakor alapvető szabály, hogy soha ne bízzunk bennük vakon. A fontos információkat mindig ellenőrizni kell, és politikai, egészségügyi vagy pénzügyi témákban csak hiteles, emberi újságírók által ellenőrzött forrásokra szabad támaszkodni.
Az iskoláknak és egyetemeknek növelniük kell a digitális és médiatudatosságot, hogy a fiatalok megtanulják felismerni a mesterséges intelligencia által generált dezinformációkat.
Amíg az MI nem válik megbízhatóbbá, addig érdemes szabályként kezelni: a chatbotok hasznos eszközök lehetnek kreatív íráshoz és ötleteléshez, de nem alkalmasak hírforrásnak vagy tényellenőrzésre.
Az emberi újságírás és a gondos forrásellenőrzés továbbra is pótolhatatlan a digitális korszakban.
