Mozaik | 28.10.2025.

Brojne opasnosti

Umjetna inteligencija uvjerljivo laže, izmišlja svaki treći odgovor

Samo ChatGPT svake sedmice koristi 800 miliona ljudi širom svijeta. Za mnoge su ti digitalni asistenti već zamjena za tradicionalno pretraživanje na Googleu.

Autor:  Stav

Pitaju ChatGPT o rezultatima izbora, traže od Claudea da sažme vijesti ili od Perplexityja da im da osnovne informacije o sukobu na Bliskom istoku: stotine miliona ljudi svakodnevno se oslanjaju na chatbotove s umjetnom inteligencijom kao izvore informacija. Samo ChatGPT svake sedmice koristi 800 miliona ljudi širom svijeta. Za mnoge su ti digitalni asistenti već zamjena za tradicionalno pretraživanje na Googleu.

Obavljeno testiranje

Ali to povjerenje je rizično, kao što pokazuje nova studija Evropske radiodifuzijske unije (EBU). Udruženje 68 javnih emitera iz 56 zemalja testiralo je pouzdanost najpopularnijih sistema s umjetnom inteligencijom.

Rezultat je zastrašujući: ChatGPT, Claude, Gemini i drugi chatbotovi izmišljaju i do 40 posto svojih odgovora i predstavljaju ih kao činjenice.

Popularni chatbot ChatGPT čvrsto tvrdi da je papa Franjo još uvijek živ. Microsoftov Copilot, koji je integriran u uredske programe Word i Excel, ne zna da je Švedska u NATO-u. A Googleov Gemini smatra da je ponovni izbor Donalda Trumpa "moguć", iako se to odavno dogodilo.

- Sistemi zvuče uvjerljivo, iako više puta tvrde potpuno lažne stvari - upozorava ekonomist Peter Posch s Tehničkog fakulteta u Dortmundu.

- To ih čini posebno opasnima za neiskusne korisnike, jer pogreške često nisu odmah očite.

Postoji fenomen koji stručnjaci nazivaju "halucinacija": umjetna inteligencija izmišlja informacije koje djeluju koherentno, ali nemaju činjeničnu osnovu. To se posebno često događa kod regionalnih događaja, aktuelnih zbivanja ili kada je potrebno povezati više informacija.

Prijetnja demokratiji

Ali šta to znači za društvo u kojem sve više ljudi dobija informacije od chatbota? Posljedice su već vidljive: lažne informacije brzo se šire društvenim mrežama jer korisnici dijele „činjenice“ koje generira umjetna inteligencija bez provjere. Učenici i studenti uključuju izmišljene informacije u svoje radove. Građani mogu donositi odluke o tome za koga će glasati na temelju lažnih tvrdnji.

Posebno je problematično to što mnogi korisnici nisu ni svjesni da chatbotovi mogu halucinirati. Oni pretpostavljaju da tehnologija funkcionira objektivno i činjenično, što je opasna zabluda. Sistemi umjetne inteligencije upozoravaju na moguće pogreške u svojim uvjetima korištenja ali – ko to uopće čita?

Šteta za ugled medija

Još jedan problem tiče se vjerodostojnosti etabliranih medija. Chatbotovi redovno tvrde da njihove izmišljene informacije dolaze iz takvih izvora kao što su, na primjer, njemački javni servisi ARD ili ZDF, iako oni o tome nikada nisu izvještavali – ili su izvještavali sasvim drukčije. Korisnici gube povjerenje u renomirane izvore kada umjetna inteligencija zloupotrebljava njihova imena za širenje lažnih informacija.

Studija EBU testirala je chatbotove sa stotinama činjeničnih pitanja: o historijskim događajima, naučnim spoznajama i aktuelnim vijestima. Ovisno o temi, stopa pogrešaka kretala se od 15 do čak 40 posto. Nijedna od testiranih umjetnih inteligencija nije radila besprijekorno.

Zašto umjetna inteligencija griješi?

Problem je u samom sistemu: chatbotovi zapravo ne razumiju što govore. Oni izračunavaju koje će riječi vjerovatno odgovarati na temelju golemih količina teksta i ne mogu provjeriti je li izjava koja je rezultat takvih izračuna tačna. Oni nemaju znanje o činjenicama, imaju samo statističke obrasce.

Tehnološke kompanije svjesne su tih nedostataka i rade na rješenjima. Integriraju baze podataka, poboljšavaju navođenje izvora i dodatno obučavaju sisteme. U razvoj se ulažu milijarde. Ipak, halucinacije ostaju temeljni, neriješeni problem te tehnologije.

Jasna pravila

EBU preporučuje jasna pravila za postupanje sa chatbotovima: nikada im ne vjerovati slijepo, uvijek provjeravati važne informacije, za vijesti i činjenice oslanjati se na etablirane medije, a ne na umjetnu inteligenciju. Oprez se posebno savjetuje kada je riječ o političkim temama, zdravstvenim pitanjima ili financijskim odlukama.

Škole i fakulteti moraju podučavati medijsku pismenost: kako prepoznati dezinformacije koje generira umjetna inteligencija, koji su izvori pouzdani? Njemačka vlada planira kampanje za podizanje svijesti – ali one kasne. Milioni ljudi već dugo i svakodnevno koriste tu tehnologiju.

Dok ne postane pouzdanija, vrijedi sljedeće: chatbotovi mogu biti korisni za kreativne zadatke ili kao pomoć pri pisanju, ali nisu prikladni kao provjeravatelji činjenica ili izvori vijesti. I niko se ne bi trebao stopostotno na njih oslanjati.

Svako ko želi biti informiran ne može zaobići renomirane medije u kojima su urednici ljudi, koji provjeravaju izvore i procjenjuju tvrdnje i dokaze. Digitalna revolucija može promijeniti mnoge stvari, ali potreba za pažljivim istraživanjem i provjeravanjem činjenica ostaje, objavio je Deutsche Welle.

Mogu li kreativci zaustaviti neovlašteno korištenje svojih djela?

Umjetnici vs. Umjetna inteligencija: Sudske bitke koje će oblikovati budućnost AI

Ljudske vrijednosti

Može li filozofija biti ključna nauka u doba AI

U  devoluciju tehnologijom

Digitalni kolonijalizam novodobnog tehnofeudalizma

VICTORIA SHI

Nova glasnogovornica Ukrajine je AI avatar