Pročitaj mi članak

Može li ChatGPT biti optužen za ubistvo?

0

Pre nego što je prošle godine otvorio vatru u kampusu Državnog univerziteta Floride, ubivši dve osobe i ranivši još šest, Finiks Ikner je imao jedan razgovor.

Ne sa prijateljem, roditeljem ili bilo kim ko bi ga možda sprečio, već sa AI četbotom.

Prema dokazima koje je prikupio državni tužilac Floride, student je pitao ChatGPT koje oružje i municija bi bili najbolji za napad, kao i kada i gde bi mogao da izazove najveći broj žrtava.

Istražitelji tvrde da mu je četbot odgovorio na pitanja.

Sada državni tužilac Džejms Utmajer želi da zna da li to čini OpenAI krivično odgovornim.

„Ako bi ono sa druge strane ekrana bila osoba, mi bismo je optužili za ubistvo“, rekao je, najavljujući krivičnu istragu protiv OpenAI i ostavljajući otvorenu mogućnost optužbi protiv kompanije ili njenih zaposlenih.

Slučaj pucnjave iz aprila 2025. pokrenuo je ozbiljno pravno pitanje: da li kreatori veštačke inteligencije mogu krivično odgovarati za ulogu koju njihov sistem ima u zločinu ili čak samoubistvu?

Pravni stručnjaci kažu da je to moguće, ali izuzetno komplikovano.

Krivično gonjenje kompanija u SAD je moguće, iako relativno retko.

Prošlog meseca Purdue Pharma je kažnjena sa više od 5 milijardi dolara zbog uloge u opioidnoj krizi.

Folksvagen je ranije osuđen u skandalu sa emisijama gasova, Fajzer zbog promocije leka Bextra, a Exxon zbog naftne katastrofe Exxon Valdez.

Međutim, svi ti slučajevi uključivali su ljudske odluke – izvršioce, menadžere i inženjere koji su svesno donosili odluke.

Slučaj Ikner je drugačiji i upravo to ga čini pravno izuzetno složenim.

„Na kraju, to je bio proizvod koji je podstakao zločin i izvršio njegov deo“, rekao je profesor prava Metju Tokson sa Univerziteta u Juti.

„Zbog toga je ovaj slučaj toliko jedinstven i težak.“

Pravni stručnjaci navode da bi najrealnije optužbe bile nemar ili nesavesno ponašanje, što se često tretira kao lakše krivično delo.

Međutim, prag dokazivanja je visok.

„Pošto je ovo novo pravno područje, jači slučaj bi uključivao interne dokumente koji pokazuju da su kompanije znale za rizike, ali ih nisu shvatile dovoljno ozbiljno“, rekao je Tokson.

„U teoriji je moguće i bez toga, ali u praksi je to veoma teško.“

U krivičnom pravu, tužioci moraju dokazati krivicu van razumne sumnje, naglasio je profesor prava Brandon Geret sa Univerziteta Djuk.

OpenAI tvrdi da ChatGPT nije odgovoran za napad.

„Neprestano radimo na jačanju zaštitnih mehanizama kako bismo prepoznali štetne namere i sprečili zloupotrebe“, saopštila je kompanija.

Građanski ili krivični postupak?

Za mnoge koji traže odgovornost, građanske tužbe su verovatniji put.

Takvi postupci bi mogli da primoraju kompanije da ozbiljnije dizajniraju svoje proizvode i suoče se sa posledicama, kaže Tokson.

U SAD je već podneto više građanskih tužbi protiv AI platformi, uključujući slučajeve povezane sa samoubistvima, ali nijedan još nije završio presudom protiv kompanija.

U decembru je porodica Suzan Adams tužila OpenAI, tvrdeći da je ChatGPT doprineo ubistvu žene od strane njenog sina.

Novije verzije ChatGPT-a imaju dodatne zaštite, kaže advokat Metju Bergman.

„Ne tvrdim da su one dovoljne, ali postoje dodatne barijere“, rekao je on.

Krivična presuda bi, čak i uz manju kaznu, mogla ozbiljno da ošteti reputaciju kompanije.

Ipak, za profesora Gereta, sudski procesi nisu zamena za zakonsku regulativu koju bi trebalo da donesu Kongres i administracija.

„To bi bio mnogo smisleniji sistem“, zaključio je.