Sun Tzu je učio da je poznavanje protivnika prvi korak prema pobjedi. Prikupljeni inteligentnim bespilotnim letjelicama, podaci o neprijatelju trenutno se procjenjuju sofisticiranim algoritmima koji u samo nekoliko sekundi mogu izdati komandu za paljbu. Ovi dronovi ponekad osmišljavaju "vrlo neočekivane strategije za postizanje svojih ciljeva".

Tucker Hamilton, voditelj testiranja umjetne inteligencije (AI) pri Zračnim snagama Sjedinjenih Država, to vrlo dobro zna. Američka vojska već je provela eksperimente u kojima AI upravlja borbenim zrakoplovima F-16.

U simulaciji u kojoj je otkrio neprijatelje koje mu operater nije dopuštao napasti, AI je odlučio ubiti operatera. Bez sumnje, to je bio najkraći put do ostvarenja cilja. "Morali smo ga naučiti da ubijanje operatera oduzima mnogo bodova", rekao je Hamilton.

Još 1942. godine slavni pisac naučne fantastike Isaac Asimov u svojim je knjigama učio strojeve da ne smiju nauditi ljudima. Ali Institut Max-Planck je u najnovijoj studiji 'Journal of Artificial Intelligence Research' zaključio da se takvi slogani mogu testirati samo stvaranjem simulacije iste umjetne inteligencije. To znači da ga je u praksi nemoguće laboratorijski provjeriti.

Autonomnim oružanim sistemima (AWS), popularno poznatim kao "roboti ubice", nije bilo dopušteno da sami povuku okidač sve dok nije izbio rat u Ukrajini prije nešto više od dvije godine. Generalizirani princip bio je takozvani 'Human in the loop', koji je u konačnici odluku i odgovornost prepuštao ljudskom faktoru.

No dobavljači oružja i vojni promatrači otkrili su da stalna kontrola također zahtijeva kontinuiranu vezu između vojnika i drona kojim upravlja. A to je često na bojnom polju poremećeno elektronskim ratovanjem, tj. ometajućim signalima. Sve dok je potrebna stalna veza za upravljanje bespilotnim sistemom, protivnik će pokušati sve da prekine tu vezu. A tokom tih razdoblja AI je ta koja odlučuje.

Ukrajinski dronovi izvode autonomne napade na ruske snage bez ljudskog operatera. Ukrajina je rasporedila bespilotne letjelice turske proizvodnje Bayraktar TB2 i kvadrokoptere Saker Scout koji nose protivtenkovske granate RKG-3 ili RPG bojeve glave na udaljenosti od 12 kilometara i sposobni su identificirati i napasti do 64 vrste vojnih meta samostalno.

Sakerov AI 'softver' integriran je s ukrajinskim obavještajnim sistemom Delta, koji spaja podatke iz dronova, satelita i drugih izvora za sveobuhvatno mapiranje. Kompanija priznaje da je koristila Saker Scout bez ljudskog operatera, iako samo u malom opsegu.

Količina informacija koju je potrebno procijeniti kako bi se donijela ispravna odluka već je izvan ljudskih vojnih kapaciteta, objašnjava Patrick Bolder, analitičar u Centru za strateške studije u Haagu: „Sve je više senzora koji nadziru cijelo front, ne samo na kopnu, ali i pod vodom, u zraku, svemiru i kibernetičkom prostoru. Sve te informacije vode do određene slike, situacijske svijesti. Toliko je informacija koje dolaze kroz sve te senzore da ih je gotovo nemoguće uhvatiti kao čovjek. Stoga je potrebna automatska obrada.”

U tom smislu, Ukrajina je testna laboratorija za veliko globalno tržište oružja. U 2019. godini vojni roboti su zaradili ukupno 14 milijardi dolara, prema Fortune Business Insights, koji procjenjuje da će zarada do 2027. dosegnuti 25 milijardi dolara.

„Živimo u vremenu kada geostrateški interesi određuju kako razmišljamo o tehnologiji i njenom razvoju. U našem takmičenju s Kinom, tehnologija igra važnu ulogu i mogli bismo biti pod pritiskom da ovu tehniku umjetne inteligencije koristimo mnogo brže nego što bismo trebali,” upozorava Margarita Konaev, iz Centra za sigurnost i tehnologiju na Univerzitetu Georgetown u Washingtonu.

Glavna prepreka kontroli vojnih odluka umjetne inteligencije je poteškoća u nezavisnoj provjeri je li sistem naoružanja u skladu s propisima bez otkrivanja njegove tajne operacije. Čak i pod pretpostavkom da ljudi zadrže kontrolu, AI je već potpuno promijenila umijeće ratovanja.

Ulrike Franke iz Evropskog vijeća za vanjske odnose upozorava na novu opasnost od 'blitzkriega'.

„Sistem kojim upravlja umjetna inteligencija uči sam od sebe i stoga ponekad donosi odluke, a da ljudi ne mogu tačno razumjeti razloge. To je posebno problematično jer se u ratovima uvijek mora računati na sabotažu. Ali, ako više ne mogu razumjeti odluke, teško mogu otkriti sabotažu“, kazala je ekspertica za njemački list Süddeutsche Zeitung .

Nadalje, Franke je istakla opasnost od pristranosti podataka. „Nemamo podataka o nuklearnim ratovima jer ih nismo vodili, a, naprimjer, posljednjih godina zapadne zemlje vode ratove uglavnom protiv ljudi tamnije puti. Tu imamo podatke. U ratu protiv ljudi svijetle kože, cijeli bi sistem mogao propasti."

No, uprkos svim tim opasnostima i neuspjelim pokušajima regulacije koji su pokušavani od 2014. godine, nijedna vojska sada ne može sebi priuštiti da bude bez umjetne inteligencije u svojim vojnim sistemima, što globalne sporazume o nekorištenju AI čini smiješnima.

U novom umijeću ratovanja 21. stoljeća, 3D printer od 500 eura proizvodi bespilotne letjelice ubice za 60 eura po komadu. Čak se i svaki dron s kojim se djeca igraju u vrtu jednim klikom može pretvoriti u robota ubicu.