Američko ministarstvo odbrane potvrdilo je da je riječ o lažnoj fotografiji, no još se ne zna odakle je stigla. Uprkos tome, njena je viralnost već uzrokovala kratki pad na berzi, navodi CNN.

Ovo jeste bezazlena situacija, ali otvara brojna pitanja o upotrebi umjetne inteligencije. The Atlantic je nedavno objavio članak o tome koliko je opasna umjetna inteligencija i zastrašujuće mogućnosti da izazove nuklearni rat.

Nijedna tehnologija od atomske bombe nije toliko nadahnula apokaliptičnu maštu kao umjetna inteligencija. Otkako je u novembru počeo pokazivati tragove logičkog razmišljanja, internet je preplavljen scenarijima Sudnjeg dana. Mnogi od njih su namjerno bizarni — namijenjeni su nam da zamislimo koliko stvari mogu poći po zlu ako vještački um u nastajanju počne shvaćati svijet i vlastite ciljeve čak i malo drugačije nego što to čine njegovi ljudski tvorci. Međutim, jedan scenarij zahtijeva manje mašte, jer su prvi koraci prema tome možda već u toku — postepena integracija umjetne inteligencije u najrazornije tehnologije koje danas posjedujemo.
Najveće svjetske vojne sile započele su utrku za uvođenjem umjetne inteligencije u ratne napore. Za sada to u osnovi znači davanje algoritmima kontrole nad pojedinačnim oružjem ili rojevima bespilotnih letjelica. Niko ne poziva umjetnu inteligenciju da razvije generalnu strategiju ili sudjeluje na sastanku Zajedničkog štaba. Ali ista zavodljiva logika koja je ubrzala utrku u nuklearnom naoružanju mogla bi u roku od nekoliko godina pokrenuti UI. Koliko brzo dijelom zavisi i o tome koliko brzo tehnologija napreduje, a čini se da se brzo razvija. Koliko daleko zavisi o našoj ljudskoj viziji i našoj sposobnosti da djelujemo s kolektivnom suzdržanošću.

Jacleen Schneider, direktorica Inicijative za modeliranje kriza i krize na Stanford Hoover institutu, nedavno je pričala o igri koju je razvila 2018. godine. Simulira nuklearni sukob koji se brzo odvija, a igrali su ga 115 puta ljudi čiji su odgovori od najvećeg interesa: bivši šefovi država, ministri vanjskih poslova, visoki časnici NATO-a. Budući da je balansiranje na ivici nuklearnog rata, srećom, u povijesti bilo rijetko, Schneiderina igra daje nam jedan od najjasnijih uvida u odluke koje ljudi mogu donijeti u situacijama s najvećim ulozima koje se mogu zamisliti.

To ide otprilike ovako: američki predsjednik i njegov kabinet upravo su gurnuti u podrum Zapadnog krila na užasan brifing. Teritorijalni sukob je izbio, a neprijatelj razmišlja o prvom nuklearnom napadu na Sjedinjene Države. Atmosfera u situacijskom centru je napeta. Jastrebovi savjetuju da se odmah pripreme za odmazdu, ali kabinet ubrzo saznaje za zabrinjavajuću situaciju. Neprijatelj je razvio novo kibernetičko oružje, a svježe obavještajne informacije sugeriraju da bi se moglo infiltrirati u komunikacijski sustav koji povezuje predsjednika s njegovim nuklearnim snagama. Sve naredbe za lansiranje koje pošalje možda neće doći do časnika odgovornih za njihovo izvršavanje.

U ovom scenariju nema dobrih opcija. Neki igrači delegiraju ovlasti za lansiranje časnicima na raketnim poligonima, koji moraju donijeti vlastite prosudbe o tome je li nuklearni protunapad opravdan — zastrašujući prijedlog. Ali Schneider je rekla da ju je najviše uznemirila druga strategija, primijenjena s iznenađujućom pravilnošću. U mnogim igrama, rekla je, igrači koji su se bojali potpunog kršenja zapovjedništva i kontrole željeli su potpuno automatizirati svoje sposobnosti lansiranja nuklearnih projektila. Oni su se zalagali za proširenje sposobnosti algoritama za određivanje kada je nuklearni protunapad prikladan. Samo umjetna inteligencija mogla bi odlučiti hoće li ući u nuklearnu razmjenu.

Schneiderina igra je, po dizajnu, kratka i napeta. Upute igrača za automatizaciju obično nisu bile napisane s inženjerskom preciznošću- kako bi se to tačno moglo postupiti? Je li uopće mogao postojati bilo koji automatizirani sistem prije vrhunca krize? - ali ipak, zamah govori sam za sebe. "Uobičajeno je razmišljati o ovoj tehnologiji", rekla je Schneider, " i brinem se da će (vođe) koji ne razumiju nesigurnost samih algoritama htjeti koristiti umjetnu inteligenciju za smanjenje nesigurnosti."

Umjetna inteligencija stvara iluziju hladnokrvne tačnosti, posebno u usporedbi s potencijalno nestabilnim ljudima sklonim pogreškama. Ali najnaprednija UI do sada su crne kutije; ne razumijemo baš kako funkcioniraju. U izazovnim konfliktnim situacijama s visokim ulozima, percepcije UI o tome šta predstavlja pobjedu mogu biti nedokučive, ako ne i potpuno strane. Na najdubljoj, najvažnijoj razini, umjetna inteligencija možda ne razumije što su Ronald Reagan i Mihail Gorbačov mislili kad su rekli: "nemoguće je dobiti nuklearni rat."

Naravno, postoji presedan za automatizaciju Armagedona. Nakon što su Sjedinjene Države i Sovjetski Savez izašli kao pobjednici iz Drugog svjetskog rata, činilo se da su spremni uzeti oružje u trećem, što je sudbina koju su izbjegli samo stvaranjem infrastrukture uzajamno osiguranog uništenja. Ovaj se sustav temelji na elegantnoj i zastrašujućoj simetriji, ali poljulja se svaki put kad bilo koja strana napravi novi tehnološki korak naprijed. U posljednjim desetljećima hladnog rata Sovjetski čelnici bojali su se da bi njihova sposobnost da se odupru američkom nuklearnom napadu na Moskvu mogla biti ugrožena, pa su razvili program "mrtva ruka".

Bilo je tako jednostavno da se teško moglo nazvati algoritamskim: nakon aktiviranja tokom nuklearne krize, ako je zapovjedni i kontrolni centar izvan Moskve prestao primati poruke iz Kremlja, poseban stroj zatražio bi atmosferske uvjete iznad glavnog grada. Ukoliko bi otkrio izdajničke zasljepljujuće bljeskove i navale radioaktivnosti, sve preostale sovjetske rakete bile bi lansirane na Sjedinjene Države. Rusija je izbjegavala taj sustav, ali je 2011. zapovjednik strateških raketnih snaga zemlje izjavio da još uvijek postoji i da je na "borbenoj dužnosti". 2018. bivši zapovjednik raketnih snaga izjavio je da je "čak i poboljšan".

2019.Curtis McGiffin, dekan Tehnološkog instituta zrakoplovstva i Adam Lauter, tadašnji direktor istraživanja i obrazovanja na Louisiana Tech Research Institute, objavili su rad tvrdeći da bi Amerika trebala razviti vlastitu nuklearnu "mrtvu ruku". Nova tehnologija skratila je vrijeme između trenutka otkrivanja nadolazećeg napada i posljednjeg trenutka kada predsjednik može narediti salvu. Ako se ovo vrijeme donošenja odluka još više smanji, Američka sposobnost izvođenja protunapada mogla bi biti
kompromitirano. Njihovo rješenje: podržati američko nuklearno odvraćanje umjetnom inteligencijom koja može donositi odluke o pokretanju brzinom računanja.

McGiffin i Lauter su u pravu u vezi s prostorom za donošenje odluke. Na početku hladnog rata bombarderi poput onog koji se koristio nad Hirošimom bili su preferirano sredstvo za prvi napad. Tim je avionima trebalo dugo da prelete između Sovjetskog Saveza i Sjedinjenih Država, a budući da pilotiraju ljudi, mogli su se opozvati. Amerikanci su izgradili luk radarskih stanica na kanadskom Arktiku, Grenlandu i Islandu kako bi osigurali da predsjednik imati sat ili više vremena za upozorenje prije nego što prvi oblak gljiva procvjeta nad američkim gradom. To je dovoljno vremena za kontaktiranje Kremlja, dovoljno vremena za pokušaj obaranja bombardera i, ako ne uspije, dovoljno vremena da se naredi potpuni odgovor.

Interkontinentalna balistička raketa (ICBM), koju je Sovjetski Savez prvi put rasporedio 1958. godine, skratila je to vrijeme, a tokom desetljeća stotine ih je ugrađeno u Sjevernoameričke i euroazijske podloge. Bilo koji od njih može letjeti preko sjeverne hemisfere za manje od 30 minuta. Kako bi sačuvale što više tih minuta, obje su supersile lansirale flotile satelita koji su mogli otkriti jedinstveni infracrveni potpis lansiranja rakete kako bi odredili njenu tačnu paraboličku putanju i cilj.

Nakon što su nuklearne podmornice poboljšane 70-ih, stotine raketa opremljenih bojevim glavama počele su surfati svjetskim oceanima, približavajući se svojim ciljevima, smanjujući vrijeme odluke na pola, na 15 minuta, a možda i manje. (Zamislite da se jedan od njih pojavi na obali Delavera, samo 180 milja od Bijele kuće. Čak i ako najveće nuklearne sile nikada uspješno ne razviju novu nuklearno-raketnu tehnologiju, 15 minuta ili manje je zastrašujuće malo vremena za promišljenu ljudsku reakciju. Ali oni rade na razvoju novih raketnih tehnologija, uključujući hipersonične rakete, koje Rusija već koristi u Ukrajini kako bi brzo udarila i izbjegla proturaketnu obranu. I Rusija i Kina žele da hipersonične rakete na kraju nose nuklearne bojeve glave. Te bi tehnologije potencijalno mogle ponovno smanjiti prozor na pola.

Tih nekoliko preostalih minuta brzo će proći, pogotovo ako Pentagon ne može odmah zaključiti da raketa ide prema Bijeloj kući. Predsjednika će možda trebati probuditi iz sna; početni kodovi mogu biti zbunjujući. Udarac u glavu može se izvesti bez naredbe za uzvratni salvo. Negdje izvan DC-a, zapovjedništvo i kontrola borit će se da pronađu sljedećeg civilnog vođu niz lanac, dok će veća raketna salva pogoditi američke raketne silose, vojne baze i glavna infrastrukturna čvorišta.

Pokušaj prvog napada ove vrste i dalje bi bio lud, jer bi neke američke nuklearne snage najvjerojatnije preživjele prvi val, posebno podmornice. No, kao što smo ponovno vidjeli posljednjih godina, nepromišljeni ljudi ponekad vode nuklearne sile. Čak i ako sužavanje roka za donošenje odluka čini napade odrubljivanja glave samo neznatno primamljivijim, zemlje će možda htjeti podržati svoje mjere odvraćanja.

Sjedinjene Države još nisu među takvim zemljama. Nakon objavljivanja članka Mcgiffina i Loutera, general-pukovnik John Shanahan, direktor Pentagonovog Zajedničkog centra za umjetnu inteligenciju, upitan je o automatizaciji i nuklearnom oružju. Shanahan je rekao da, iako ne može zamisliti jačeg zagovornika umjetne inteligencije u vojsci od sebe, nuklearno zapovjedništvo i kontrola "jedino su područje na kojem se zaustavljam".

Inače, Pentagon je brzo Radio na automatizaciji američkog ratnog stroja. Od 2021. godine, prema izvješću za tu godinu, imao je najmanje 685 tekućih projekata umjetne inteligencije i od tada kontinuirano traži više sredstava za umjetnu inteligenciju. Nisu poznati svi projekti, ali pojavljuje se djelomična ideja o automatiziranim američkim oružanim snagama. Tenkovi koji će u budućnosti voditi američke kopnene snage samostalno će identificirati prijetnje, tako da će operateri moći jednostavno dodirnuti istaknute točke na ekranu kako bi eliminirali potencijalne napadače. Na borbenim avionima Airbender-16 piloti će biti spojeni u kokpitu pomoću algoritama koji izvodi složene manevre u zračnoj borbi. Piloti će se moći slobodno usredotočiti na pucanje iz oružja i koordinaciju s rojevima autonomnih bespilotnih letjelica.

U januaru je Pentagon ažurirao svoju prethodno nebuloznu politiku, precizirajući da će omogućiti razvoj oružja s umjetnom inteligencijom sposobnog za samostalno ispaljivanje smrtonosnih hitaca. Ta sposobnost sama po sebi postavlja ozbiljna moralna pitanja, ali čak će i ti UI djelovati, u osnovi, kao trupe. Uloga umjetne inteligencije u zapovjedništvu na bojnom polju i strateškom funkcioniranju američke vojske u velikoj je mjeri ograničena na obavještajne algoritme koji istodobno obrađuju tokove podataka prikupljene sa stotina senzora — podvodnih mikrofona, zemaljskih radarskih stanica, špijunskih satelita. U vrlo bliskoj budućnosti od UI se neće tražiti da kontrolira kretanje trupa ili provodi koordinirane napade. Međutim, tempo i složenost ratovanja mogu se povećati dijelom i zbog oružja s umjetnom inteligencijom. Ako se američki generali nađu nadmašeni kineskom UI, koja sedmicama može analizirati dinamične strateške situacije s milionima varijacija, a da nikada ne ode u krevet - ili ako se Pentagon boji da bi se to moglo dogoditi — UI bi mogao biti imenovan na više položaje donošenja odluka.

Tačan sastav američkog nuklearnog zapovjedništva i kontrole klasificiran je, ali zapanjujuća računalna snaga umjetne inteligencije već se dobro koristi u nacionalnim sustavima ranog upozoravanja. Čak i ovdje automatizacija dolazi s ozbiljnim rizicima. 1983. sovjetski sistem ranog upozoravanja zamijenio je blistave oblake iznad srednjeg zapada za rakete. Katastrofa je spriječena samo zato što je potpukovnik Stanislav Petrov — čovjek u čiju čast treba podići spomenike — u stomaku osjetio da je to lažna uzbuna. Savremeni algoritmi računalnog vida složeniji su, ali njihov rad često ostaje tajanstven. 2018. istraživači umjetne inteligencije pokazali su da sitni poremećaji na slikama životinja mogu prevariti neuronske mreže da pogrešno klasificiraju pandu kao gibona. Ako se UI suoči s novim atmosferskim pojavama koje nisu uključene u njene podatke, ako nije trenina na to, ona može halucinirati o nadolazećim napadima.

Ali ostavimo halucinacije na trenutak po strani. Kako se veliki jezični modeli nastavljaju poboljšavati, od njih će se na kraju možda tražiti da stvore razumljive tekstualne opise kriza koje se brzo odvijaju u stvarnom vremenu, uključujući i nuklearne krize. Jednom kada ove pripovijesti nadiđu puke izjave o broju i položaju raketa koje se približavaju, postaju više poput izjava savjetnika koji se bave tumačenjem i uvjeravanjem. UI se mogu pokazati izvrsnim savjetnicima-nepristrani, hiperinformirani, uvijek pouzdani. Moramo se tome nadati, jer čak i ako se od njih nikada ne zatraži da preporuče odgovore, njihove stilske nijanse nesumnjivo će utjecati na predsjednika.

Uz dovoljno široku diskreciju u pogledu konvencionalnog ratovanja, UI bez ovlasti nuklearnog oružja ipak bi mogao krenuti prema gambitu koji bi nehotice eskalirao sukob tako daleko i tako brzo da bi uslijedilo panično lansiranje nuklearnog oružja. Ili može namjerno stvoriti situacije na bojnom polju koje će dovesti do lansiranja ako vjeruje da će upotreba nuklearnog oružja postići postavljene ciljeve. Zapovjednik s umjetnom inteligencijom bit će kreativan i nepredvidiv: jednostavni zapovjednik koji je dizajnirao MCI pobijedit će ljudske igrače u modificiranoj verziji MCI 2, simulacijskoj igri bitke, sa strategijama koje nikada nisu razmatrali. (Značajno je da se pokazala spremnom žrtvovati vlastite borce.)

Ovi veći scenariji nisu neizbježni. Danas se na umjetnu inteligenciju gleda sa sumnjom, a ako njezina sve veća upotreba dovede do pada berze ili neke druge krize, te će mogućnosti nestati, barem na neko vrijeme. Ali pretpostavimo da nakon nekih ranih kvarova, UI umjesto toga dobro funkcionira desetljeće ili nekoliko desetljeća. S takvim rezultatom, možda bi se moglo dopustiti da se prepusti nuklearno zapovjedništvo i kontrola u trenutku krize, kao što su predviđali sudionici Schneiderine ratne igre. U nekom trenutku, predsjednik može unaprijed učitati algoritme za zapovijedanje i kontrolu prvog dana na dužnosti, možda čak i dati umjetnoj inteligenciji dozvolu za improvizaciju na temelju vlastitih dojmova o napadu koji se odvija.

Mnogo će ovisiti o tome kako umjetna inteligencija razumije svoje ciljeve u kontekstu nuklearnog sukoba. Istraživači koji su obučavali UI za igranje različitih igara više su puta naišli na varijaciju ovog problema: razumijevanje UI o tome što predstavlja pobjedu može biti nedostižno. U nekim je igrama UI djelovala predvidljivo sve dok je neka mala promjena u njihovom okruženju nije natjerala da iznenada promijeni strategiju. Na primjer, umjetna inteligencija naučena je igrati igru u kojoj igrači traže ključeve kako bi otvorili škrinje s blagom i dobili nagradu. Učinila je upravo to sve dok inženjeri nisu promijenili okruženje igre tako da je bilo više ključeva nego škrinja, nakon čega je počeo gomilati sve ključeve, iako su mnogi od njih bili beskorisni, a samo je povremeno pokušavao otključati škrinje. Svaka inovacija u nuklearnom oružju — ili obrambenoj opremi-mogla bi dovesti umjetnu inteligenciju u jednako dramatičan zaokret.

Svaka zemlja koja ugrađuje umjetnu inteligenciju u svoje zapovijedanje i kontrolu motivirat će druge da slijede njihov primjer, makar samo kako bi zadržala pouzdano odvraćanje. Michael Clare, profesor svjetskog mira i sigurnosti na Hampshire Collegeu, upozorio je da bi, ako više zemalja automatizira odluke o pokretanju, mogao doći do "iznenadnog rata". Zamislite da američka umjetna inteligencija pogrešno tumači akustično promatranje podmornica u Južnokineskom moru. More kao pokret koji najavljuje nuklearni napad. Njenu pripremu za protunapad vidjela bi kineska umjetna inteligencija, koja bi zapravo počela pripremati svoje lansirne platforme, što bi izazvalo niz eskalacija koje bi kulminirale velikom nuklearnom razmjenom.

Početkom 90-ih, tokom razdoblja relativnog mira, George Bush stariji i Mihail Gorbačov shvatili su da će razvoj konkurentnog oružja dovesti do beskonačnog širenja nuklearnih bojevih glava. Na njihovu veliku zaslugu, odbili su se pokoriti ovoj dinamici utrke u naoružanju. Umjesto toga, potpisali su Ugovor o smanjenju strateškog ofenzivnog naoružanja. Od tada se priča nastavila. Neki od tih ugovora su istekli. Drugi su razvodnjeni kako su se odnosi između SAD-a i Rusije hladili. Sada su dvije zemlje bliže otvorenom ratu nego u bilo kojem trenutku u posljednjim generacijama. 21. februara ove godine, manje od 24 sata nakon što je predsjednik Joe Biden šetao ulicama Kijeva, ruski predsjednik Vladimir Putin rekao je da će njegova zemlja obustaviti svoje sudjelovanje u Novom START ugovoru, najnovijem ugovoru o ograničenju arsenala koji ostaje na snazi. U međuvremenu, Kina sada vjerojatno ima dovoljno raketa da uništi svaki veći američki grad, a njezini su generali navodno počeli više cijeniti svoj arsenal jer su vidjeli utjecaj koji je nuklearno oružje pružilo Rusiji tokom ukrajinskog rata. Uzajamno osigurano uništavanje trenutno je problem s tri strane, a svaka od njegovih strana koristi tehnologiju koja može destabilizirati njezinu logiku.

Neki od ovdje opisanih scenarija mogu se činiti prilično dalekim, ali to je još jedan razlog za razmišljanje o tome kako ih možemo izbjeći prije nego što umjetna inteligencija postigne impresivan napredak na bojnom polju i postane previše primamljiva za upotrebu.