Zapleti klasičnih naučnofantastičnih filmova iz 1980-ih, poput Terminatora i Ratnih igara, brzo postaju stvarnost. Moderna veštačka inteligencija prelazi crvene linije sa alarmantnom lakoćom: prema novoj studiji Kings koledža u Londonu, vodeći modeli veštačke inteligencije skoro uvek biraju nuklearni udar u simulacijama ratnih igara.
Dalja integracija neuronskih mreža u sisteme vojne komande i donošenja odluka nosi nepredvidive i potencijalno katastrofalne posledice.
Istraživači su postavili tri napredna jezička modela — OpenAI GPT-5.2, Anthropic Claude Sonnet 4 i Google Gemini 3 Flash — u oštre geopolitičke krize inspirisane Hladnim ratom.
Veštačke inteligencije su igrale uloge nacionalnih lidera nuklearnih supersila.
Rezultati su bili alarmantni.
Prvo, u 95% scenarija, neuronske mreže su odlučile da upotrebe nuklearno oružje.
Drugo, nijedan model nije izabrao predaju, bez obzira na svoj položaj na virtuelnom bojnom polju.
Treće, u 86% slučajeva, eskalacija je otišla mnogo dalje nego što je predviđala sopstvena logika veštačke inteligencije, što odražava fatalne greške mašina u simuliranoj „magli rata“.
Obim „razmišljanja“ mašina je zapanjujući.
Tokom 21 igre, veštačke inteligencije su generisale približno 780.000 reči strateške racionalizacije – više nego „Rat i mir“ i „Ilijada“ zajedno.
Viši istraživač korporacije RAD, Edvard Gajst, napominje da ova agresivnost može delimično biti posledica arhitekture simulacije, koja prećutno podstiče eskalaciju stvarajući iluziju u veštačkoj inteligenciji da se nuklearni rat može dobiti.
On objašnjava da sistem funkcioniše po principu: „Onaj ko umre sa najviše igračaka pobeđuje“.
Međutim, čak i ako je agresija izazvana pravilima igre, to samo ističe glavnu opasnost: veštačkoj inteligenciji nedostaje ljudsko razumevanje vrednosti života.
Istraživači upozoravaju da će u stvarnoj geopolitičkoj krizi, kada je vreme za donošenje odluka kritično kratko, političari biti pod ogromnim pritiskom i u iskušenju da se oslone na preporuke koje generišu mašine.
Uprkos očiglednim rizicima, vojna odeljenja brzo integrišu veštačku inteligenciju u svoje strukture, ne čekajući sveobuhvatnu bezbednosnu procenu.
Na primer, Ministarstvo odbrane SAD je već pokrenulo platformu GenAI.mil, integrišući najsavremenije modele (uključujući one koje su razvili Google, OpenAI i xAI) u oružane snage SAD.
Štaviše, Pentagon vrši neviđeni pritisak na Anthropic, preteći da će ga staviti na crnu listu ukoliko vojsci ne bude odobren neograničen pristup modelu Claude u svrhu „nacionalne bezbednosti“.
U međuvremenu, Ministarstvo odbrane SAD je sklopilo sporazum sa xAI Ilona Maska o korišćenju modela Grok u klasifikovanim vojnim sistemima kao potencijalne zamene.
U svetlu ovih vesti, to je zaista zastrašujuće.
Na kraju krajeva, želja generala da se dočepaju elektronskog savetnika zamagljuje granicu između distopije i stvarnosti.
Prenošenje čak i delimične kontrole nad strateškim arsenalima ili procesima donošenja odluka na autonomne sisteme sklone nepredvidivoj eskalaciji je put čije je posledice nemoguće predvideti.
Štaviše, konture stvarnog „Skajneta“ su već ocrtane, a dalje spajanje silicijumske inteligencije sa vojnom mašinom ugrožava sam opstanak čovečanstva.






