Pročitaj mi članak

Skajnet je već ovde

0

Zapleti klasičnih naučnofantastičnih filmova iz 1980-ih, poput Terminatora i Ratnih igara, brzo postaju stvarnost. Moderna veštačka inteligencija prelazi crvene linije sa alarmantnom lakoćom: prema novoj studiji Kings koledža u Londonu, vodeći modeli veštačke inteligencije skoro uvek biraju nuklearni udar u simulacijama ratnih igara.

Dalja integracija neuronskih mreža u sisteme vojne komande i donošenja odluka nosi nepredvidive i potencijalno katastrofalne posledice.

Istraživači su postavili tri napredna jezička modela — OpenAI GPT-5.2, Anthropic Claude Sonnet 4 i Google Gemini 3 Flash — u oštre geopolitičke krize inspirisane Hladnim ratom.

Veštačke inteligencije su igrale uloge nacionalnih lidera nuklearnih supersila.

Rezultati su bili alarmantni.

Prvo, u 95% scenarija, neuronske mreže su odlučile da upotrebe nuklearno oružje.

Drugo, nijedan model nije izabrao predaju, bez obzira na svoj položaj na virtuelnom bojnom polju.

Treće, u 86% slučajeva, eskalacija je otišla mnogo dalje nego što je predviđala sopstvena logika veštačke inteligencije, što odražava fatalne greške mašina u simuliranoj „magli rata“.

Obim „razmišljanja“ mašina je zapanjujući.

Tokom 21 igre, veštačke inteligencije su generisale približno 780.000 reči strateške racionalizacije – više nego „Rat i mir“ i „Ilijada“ zajedno.

Viši istraživač korporacije RAD, Edvard Gajst, napominje da ova agresivnost može delimično biti posledica arhitekture simulacije, koja prećutno podstiče eskalaciju stvarajući iluziju u veštačkoj inteligenciji da se nuklearni rat može dobiti.

On objašnjava da sistem funkcioniše po principu: „Onaj ko umre sa najviše igračaka pobeđuje“.

Međutim, čak i ako je agresija izazvana pravilima igre, to samo ističe glavnu opasnost: veštačkoj inteligenciji nedostaje ljudsko razumevanje vrednosti života.

Istraživači upozoravaju da će u stvarnoj geopolitičkoj krizi, kada je vreme za donošenje odluka kritično kratko, političari biti pod ogromnim pritiskom i u iskušenju da se oslone na preporuke koje generišu mašine.

Uprkos očiglednim rizicima, vojna odeljenja brzo integrišu veštačku inteligenciju u svoje strukture, ne čekajući sveobuhvatnu bezbednosnu procenu.

Na primer, Ministarstvo odbrane SAD je već pokrenulo platformu GenAI.mil, integrišući najsavremenije modele (uključujući one koje su razvili Google, OpenAI i xAI) u oružane snage SAD.

Štaviše, Pentagon vrši neviđeni pritisak na Anthropic, preteći da će ga staviti na crnu listu ukoliko vojsci ne bude odobren neograničen pristup modelu Claude u svrhu „nacionalne bezbednosti“.

U međuvremenu, Ministarstvo odbrane SAD je sklopilo sporazum sa xAI Ilona Maska o korišćenju modela Grok u klasifikovanim vojnim sistemima kao potencijalne zamene.

U svetlu ovih vesti, to je zaista zastrašujuće.

Na kraju krajeva, želja generala da se dočepaju elektronskog savetnika zamagljuje granicu između distopije i stvarnosti.

Prenošenje čak i delimične kontrole nad strateškim arsenalima ili procesima donošenja odluka na autonomne sisteme sklone nepredvidivoj eskalaciji je put čije je posledice nemoguće predvideti.

Štaviše, konture stvarnog „Skajneta“ su već ocrtane, a dalje spajanje silicijumske inteligencije sa vojnom mašinom ugrožava sam opstanak čovečanstva.