Ovi algoritmi možda mijenjaju naš svijet i ponašanje na načine koje ne razumijemo u potpunosti, kaže psiholog i bihejvioralni naučnik Gerd Gigerenzer, direktor Harding centra na Univerzitetu u Potsdamu u Njemačkoj. Prethodno je bio direktor Centra za adaptivno ponašanje i kognitivnost na Institutu za ljudski razvoj Max Planck, decenijama je provodio istraživanje koje je pomoglo u oblikovanju razumevanja načina na koji ljudi donose odluke kada su suočeni sa neizvesnošću.

U svojoj najnovijoj knjizi "Kako ostati pametan u pametnom svijetu", dr. Gigerenzer razmatra kako algoritmi oblikuju našu budućnost - i zašto je važno zapamtiti da nisu ljudi. Pričao je o tome u podcastu Journal for The Future of Everything.

Termin algoritam se ovih dana toliko koristi. O čemu govorimo kada govorimo o algoritmima?

To je ogromna stvar i stoga je važno razlikovati o čemu govorimo. Jedan od uvida u mom istraživanju na Institutu Max Planck je da ako imate situaciju koja je stabilna i dobro definirana, onda su složeni algoritmi kao što su duboke neuronske mreže sigurno bolji od ljudskih performansi. Primjeri su (igre) šah i go. Ali ako imate problem koji nije stabilan – na primjer, želite predvidjeti virus, poput koronavirusa – onda se držite podalje od složenih algoritama. Suočavanje sa neizvesnošću – to je više način na koji ljudski um funkcioniše, da identifikuje jedan ili dva važna znaka i ignoriše ostale. U toj vrsti loše definiranog problema, složeni algoritmi ne rade dobro. Ovo nazivam „principom stabilnog svijeta” i pomaže vam kao prvi trag o tome šta AI može učiniti. Također vam govori da, kako bismo izvukli maksimum iz AI, moramo učiniti svijet predvidljivijim.

Moramo obratiti pažnju da ne dolazimo u situaciju da tehnološke kompanije prodaju algoritme crne kutije koji određuju dijelove naših života, kaže psiholog i bihejvioralni znanstvenik Gerd Gigerenzer.

Dakle, nakon svih ovih decenija kompjuterske nauke, da li su algoritmi na kraju ktrajeva zaista i dalje samo kalkulatori koji pokreću sve složenije jednačine?

Šta bi drugo bili? Duboka neuronska mreža ima mnogo, mnogo slojeva, ali one su i dalje mašine za računanje. Oni mogu učiniti mnogo više nego ikada prije uz pomoć video tehnologije. Mogu da slikaju, mogu da konstruišu tekst. Ali to ne znači da razumiju tekst na način na koji ljudi razumiju.

Da li sposobnost razumijevanja kako ovi algoritmi donose odluke pomaže ljudima?

Transparentnost je izuzetno važna i vjerujem da bi to trebalo biti ljudsko pravo. Ako je transparentan, možete to zapravo modificirati i početi ponovo razmišljati o sebi umjesto da se oslanjate na algoritam koji nije bolji od gomile loše plaćenih radnika. Dakle, moramo razumjeti situaciju u kojoj je ljudsko prosuđivanje potrebno i zapravo je bolje. I također moramo obratiti pažnju da ne dolazimo u situaciju da tehnološke kompanije prodaju algoritme crne kutije koji određuju dijelove naših života. Radi se o svemu, uključujući vaše društveno i vaše političko ponašanje, a onda ljudi gube kontrolu nad vladama i tehnološkim kompanijama.

Pišete da "digitalna tehnologija može lako nagnuti vagu prema autokratskim sistemima." Zašto to kažete? I po čemu se ovo razlikuje od prošlih informacionih tehnologija?

Ova vrsta opasnosti je realna. Među svim prednostima koje ima, jedna od mana je sklonost nadzoru od strane vlada i tehnoloških kompanija. Ali ljudi više ne čitaju politiku privatnosti, tako da ne znaju. A i pravila privatnosti su postavljena na način da ih ne možete pročitati. Predugački su i komplikovani. Moramo vratiti kontrolu.

Pa kako onda da budemo pametni u nečemu poput ovoga?

Razmislite o kafiću u vašem rodnom gradu koji služi besplatnu kafu. Svi idu tamo jer je besplatno, a sve ostale kafane su bankrotirale, tako da više nemate izbora, ali barem ćete dobiti besplatnu kafu i uživati ​​u razgovorima sa prijateljima. Ali na stolovima su mikrofoni, a na zidovima su video kamere koje snimaju sve što kažete, svaku riječ i kome, i šalju na analizu. Kafić je pun prodavača koji vas stalno prekidaju da vam ponude personalizirane proizvode. To je otprilike situacija u kojoj se nalazite kada ste na Facebooku, Instagramu ili drugim platformama. U ovoj kafani vi niste mušterija. Vi ste proizvod. Dakle, želimo da imamo kafić u kojem nam je ponovo dozvoljeno da sami plaćamo, tako da smo mi kupci. Vidjeli smo kako je cijela ova infrastruktura oko personaliziranih oglasa uklopljena u infrastrukturu interneta. I čini se da bi bile potrebne neke prilično ozbiljne intervencije da to nestane.

Ako ste realni, što mislite kuda ćemo krenuti u narednih desetak godina sa tehnologijom i umjetnom inteligencijom i nadzorom?

Općenito, više se nadam da će ljudi shvatiti da nije dobra ideja da svoje podatke i svoju odgovornost za vlastite odluke daju tehnološkim kompanijama koje ih koriste da bi zaradile novac od oglašivača. To ne može biti naša budućnost. Svugdje drugdje plaćamo svojim novcem i zato smo mi kupci i imamo kontrolu. Postoji stvarna opasnost da sve više i više ljudi ulazi u prismotru i prihvata sve što je ponuđeno.

Algoritmi su posvuda. Kako možemo vratiti kontrolu? Zvuči tako teško čitati politike privatnosti i istraživati ove algoritme koji utječu na naš život. Kako da se suprotstavimo tome?

Najpogodnije je ne razmišljati. A alternativa je početi razmišljati. Najvažnija tehnologija koje treba biti svjestan je mehanizam koji psiholozi nazivaju "povremeno pojačanje". Dobijate pojačanje, kao što je “lajk”, ali nikad ne znate kada ćete ga dobiti. Ljudi se stalno vraćaju na platformu i provjeravaju svoje lajkove. To je zaista promijenilo mentalitet i učinilo ljude zavisnima. Mislim da je veoma važno da svi razumiju te mehanizme i kako čovjek postaje zavisan. Tako da možete vratiti kontrolu ako želite.

Izvor: WSJ