Jezik je stvar od koje je sastavljena skoro sva ljudska kultura. Ljudska prava, na primjer, nisu upisana u našu DNK. Umjesto toga, oni su kulturni artefakti koje smo stvorili pričajući priče i pisanjem zakona. Bogovi nisu fizičke stvarnosti. Umjesto toga, oni su kulturni artefakti koje smo stvorili pričanjem mitova i zapisivanjem svetih spisa.
Novac je, također, kulturni artefakt. Novčanice su samo šareni komadi papira, a trenutno više od 90% novca nisu čak ni novčanice – to su samo digitalne informacije u kompjuterima. Ono što novcu daje vrijednost su priče koje nam o tome pričaju bankari, ministri finansija i gurui kriptovaluta. Sam Bankman-Fried, Elizabeth Holmes i Bernie Madoff nisu bili posebno dobri u stvaranju prave vrijednosti, ali su svi bili izuzetno sposobni pripovjedači.
Šta bi se dogodilo kada neljudska inteligencija postane bolja od prosječnog čovjeka u pričanju priča, komponovanju melodija, crtanju slika i pisanju zakona? Kada ljudi razmišljaju o ChatGPT-u i drugim novim AI alatima, često ih privlače primjeri poput školske djece koja koriste AI za pisanje svojih eseja. Šta će se dogoditi sa školskim sistemom kada djeca to urade? Ali ova vrsta pitanja premašuje širu sliku. Zaboravite na školske eseje. Razmislite o sljedećoj američkoj predsjedničkoj utrci 2024. i pokušajte zamisliti utjecaj AI alata koji se mogu prilagoditi za masovnu proizvodnju političkog sadržaja, lažnih vijesti i svetih spisa za nove kultove.
Posljednjih godina kult qAnona se udružio oko anonimnih online poruka, poznatih kao "q drops". Sljedbenici su sakupljali, poštovali i tumačili ove “q drops” kao sveti tekst. Dok su prema našim saznanjima sve prethodne “q drops” sačinjavali ljudi, a botovi su samo pomagali u njihovom širenju, u budućnosti bismo mogli vidjeti prve kultove u historiji čije je poštovane tekstove napisala neljudska inteligencija. Religije su kroz historiju tvrdile da za svoje svete knjige nisu ljudski izvori. Uskoro bi to mogla postati realnost.
Na prozaičnijem nivou, uskoro bismo mogli da vodimo dugačke online diskusije o abortusu, klimatskim promjenama ili ruskoj invaziji na Ukrajinu sa entitetima za koje mislimo da su ljudi – a zapravo su AI. Kvaka je u tome što nam je krajnje besmisleno trošiti vrijeme pokušavajući promijeniti deklarirana mišljenja AI bota, dok bi AI mogao izbrusiti svoje poruke tako precizno da ima dobre šanse da utiče na nas.
Svojim ovladavanjem jezikom, AI bi čak mogao uspostaviti intimne odnose s ljudima i koristiti moć intimnosti da promijeni naša mišljenja i poglede na svijet. Iako nema naznaka da AI ima bilo kakvu vlastitu svijest ili osjećaje, za poticanje lažne intimnosti s ljudima dovoljno je ako AI može učiniti da se osjećaju emocionalno vezanim za njega. U junu 2022. Blake Lemoine, Googleov inženjer, javno je izjavio da je AI chatbot Lamda, na kojem je radio, postao razuman. Kontroverzna tvrdnja ga je koštala posla. Najzanimljivija stvar u ovoj epizodi nije bila tvrdnja gospodina Lemoinea, koja je vjerovatno bila lažna. Umjesto toga, to je bila njegova spremnost da rizikuje svoj unosan posao za dobro AI chat bota. Ako AI može uticati na ljude da rizikuju svoj posao zbog toga, na šta bi ih drugo mogao navesti?
U političkoj borbi za umove i srca, intimnost je najefikasnije oružje, a AI je upravo stekao sposobnost da masovno proizvodi intimne odnose sa milionima ljudi. Svi znamo da su tokom protekle decenije društvene mreže postale bojno polje za kontrolu ljudske pažnje. Sa novom generacijom AI, bojište se pomiče sa pažnje na intimnost. Šta će se dogoditi s ljudskim društvom i ljudskom psihologijom dok se AI bori protiv AI u borbi za lažiranje intimnih odnosa s nama, koji se onda mogu iskoristiti da nas ubijede da glasamo za određene političare ili kupujemo određene proizvode?
Čak i bez stvaranja "lažne intimnosti", novi AI alati bi imali ogroman utjecaj na naša mišljenja i svjetonazore. Ljudi bi mogli doći u situaciju da koriste nekog AI savjetnika kao proročište koje sve zna na jednom mjestu. Nije ni čudo što je Google prestravljen. Zašto se mučiti traženjem kada mogu samo pitati proročište? Industrija vijesti i oglašavanja također treba biti užasnuta. Zašto čitati novine kada mogu samo zamoliti proročište da mi kaže najnovije vijesti? A koja je svrha reklama kada mogu samo pitati proročište da mi kaže šta da kupim?
Čak ni ovi scenariji zapravo ne prikazuju širu sliku. Ono o čemu govorimo potencijalno je kraj ljudske historije. Tačnije, samo kraj njenog dijela kojim dominiraju ljudi. Historija je interakcija između biologije i kulture; između naših bioloških potreba i želja za stvarima kao što su hrana i seks, i naših kulturnih kreacija kao što su religije i zakoni. Historija je proces kroz koji zakoni i religije oblikuju hranu i seks.
Šta će se dogoditi sa tokom historije kada AI preuzme kulturu i počne proizvoditi priče, melodije, zakone i religije? Prethodni alati kao što su štamparija i radio pomogli su širenju kulturnih ideja ljudi, ali nikada nisu stvarali nove vlastite kulturne ideje. AI je fundamentalno drugačiji. Mogu stvoriti potpuno nove ideje, potpuno novu kulturu.
U početku će AI vjerovatno oponašati ljudske prototipove na kojima je bio obučen u povojima. Ali sa svakom godinom, AI kultura će hrabro ići tamo gdje nijedan čovjek prije nije išao. Milenijumima su ljudska bića živjela u snovima drugih ljudi. U narednim decenijama mogli bismo se naći u snovima vanzemaljske inteligencije.
Strah od AI-a proganja čovječanstvo tek posljednjih nekoliko decenija. Ali hiljadama godina ljude je proganjao mnogo dublji strah. Oduvijek smo cijenili moć priča i slika da manipulišu našim umovima i stvaraju iluzije. Shodno tome, od davnina ljudi su se plašili da budu zarobljeni u svijetu iluzija.
U 17. veku René Descartes se plašio da ga možda zlonamjerni demon zarobljava u svijetu iluzija, stvarajući sve što je vidio i čuo. U staroj Grčkoj Platon je ispričao čuvenu alegoriju pećine, u kojoj je grupa ljudi cijeli život okovana u pećini, okrenuti prema praznom zidu. Ekran. Na tom ekranu vide projektovane razne sjenke. Zatvorenici pogrešno shvataju iluzije koje tamo vide za stvarnost.
U staroj Indiji budistički i hinduistički mudraci su isticali da svi ljudi žive zarobljeni u Maji – svijetu iluzija. Ono što obično smatramo stvarnošću često su samo fikcije u našim umovima. Ljudi mogu voditi čitave ratove, ubijajući druge i voljni da i sami budu ubijeni, zbog svog vjerovanja u ovu ili onu iluziju.
Revolucija vještačke inteligencije nas dovodi licem u lice sa Dekartovim demonom, sa Platonovom pećinom, sa Majama. Ako ne budemo oprezni, mogli bismo biti zarobljeni iza zavjese iluzija, koju ne bismo mogli otkinuti — ili čak shvatiti da postoji.
Naravno, nova moć AI bi se mogla iskoristiti i u dobre svrhe. Neću se zadržavati na ovome, jer ljudi koji razvijaju AI dovoljno govore o tome. Posao historičara i filozofa poput mene je da ukažu na opasnosti. Ali svakako, AI nam može pomoći na bezbroj načina, od pronalaženja novih lijekova za rak do otkrivanja rješenja za ekološku krizu. Pitanje s kojim se suočavamo je kako osigurati da se novi AI alati koriste za dobro, a ne za zlo. Da bismo to učinili, prvo moramo cijeniti prave mogućnosti ovih alata.
Od 1945. znamo da nuklearna tehnologija može generirati jeftinu energiju za dobrobit ljudi – ali i fizički uništiti ljudsku civilizaciju. Stoga smo preoblikovali cijeli međunarodni poredak kako bismo zaštitili čovječanstvo i osigurali da se nuklearna tehnologija koristi prvenstveno za dobro. Sada se moramo uhvatiti u koštac s novim oružjem za masovno uništenje koje može uništiti naš mentalni i društveni svijet.
Još uvijek možemo regulirati nove AI alate, ali moramo djelovati brzo. Dok nuklearke ne mogu izmisliti moćnije nuklearke, AI može napraviti eksponencijalno moćniji AI. Prvi ključni korak je zahtijevati rigorozne sigurnosne provjere prije nego što moćni AI alati budu pušteni u javnu domenu. Baš kao što farmaceutska kompanija ne može pustiti nove lijekove prije testiranja njihovih kratkoročnih i dugoročnih nuspojava, tako tehnološke kompanije ne bi trebale objavljivati nove alate za umjetnu inteligenciju prije nego što postanu sigurni. Potreban nam je ekvivalent Uprave za hranu i lijekove za novu tehnologiju, a potreban nam je jučer.
Neće li usporavanje objavljivanja novih AI alata uzrokovati da demokratije zaostaju za nemilosrdnijim autoritarnim režimima? Upravo suprotno. Neregulisano širenje AI bi stvorilo društveni haos, što bi koristilo autokratama i uništilo demokratije. Demokratija je razgovor, a razgovori se oslanjaju na jezik. Kada AI hakuje jezik, to bi moglo uništiti našu sposobnost da vodimo smislene razgovore, uništavajući time demokratiju.
Upravo smo naišli na vanzemaljsku inteligenciju, ovdje na Zemlji. Ne znamo mnogo o tome, osim da bi moglo uništiti našu civilizaciju. Trebali bismo zaustaviti neodgovorno korištenje AI alata u javnoj sferi i regulirati AI prije nego što on regulira nas. I prva uredba koju bih predložio jeste da se učini obaveznim za AI da otkrije da je AI. Ako s nekim razgovaram, a ne mogu reći da li je to čovjek ili AI – to je kraj demokratije.
Izvor: The Economist