Korisnici koji žele da što pre završe neki zadatak često, nesvesno, dele osetljive podatke sa chatbotovima i AI modelima, ne razmišljajući o mogućim posledicama.
Veliki jezički modeli, poput ChatGPT-a, Geminija ili Perplexityja, postali su sastavni deo svakodnevice. Čak i oni koji ih ne koriste direktno, verovatno se oslanjaju na servise koji u pozadini koriste veštačku inteligenciju. Iako ovi alati mogu značajno da olakšaju poslovne i privatne obaveze, njihova upotreba nosi i određene bezbednosne rizike.
Problem nastaje kada korisnici, u želji da ubrzaju proces, unesu podatke koji ne bi smeli da napuste njihov lični ili poslovni okvir. Iako chatbot nije stvarna osoba, sa aspekta privatnosti i zaštite podataka treba ga tretirati kao stranca. Kao što ne biste nepoznatoj osobi na ulici dali lične ili poverljive informacije, isto pravilo važi i za AI sisteme.
Evo koje podatke ne bi trebalo deliti:
Lični podaci
Ime i prezime, adresa stanovanja, jedinstveni matični broj, broj lične karte ili pasoša, kao i fotografije tih dokumenata, ne bi smeli da se unose u AI sisteme. Ako koristite chatbot za pisanje radne biografije, tražite šablon koji ćete sami popuniti, umesto da unosite stvarne podatke.
Finansijske informacije
Brojevi kreditnih kartica, bankovnih računa, podaci za elektronsko bankarstvo ili detalji o imovini ne bi trebalo da se dele sa AI modelima. Ako tražite savet o kreditu ili porezu, koristite izmišljene primere, a ne stvarne podatke.
Lozinke i pristupni podaci
Otkrivanje korisničkih imena i lozinki predstavlja ozbiljan bezbednosni rizik. Kao što nikome ne biste dali ključeve od stana, tako ni AI sistemima ne treba poveravati pristupne podatke.
Privatne i lične informacije
Osetljive teme, poput zdravstvenih problema, porodičnih situacija, glasina ili ličnih kriza, ne bi trebalo da budu predmet razgovora sa AI modelom. On nije ni poverenik ni prijatelj kome se bez zadrške otkrivaju tajne.
Poverljivi poslovni podaci
Korišćenje ChatGPT-a za izradu ugovora ili obradu internih dokumenata može delovati praktično, ali nosi rizik. Podaci o patentima, prototipovima, finansijama ili poslovnim strategijama ne bi smeli da se dele. Zbog toga mnoge kompanije ograničavaju ili blokiraju pristup AI alatima na službenim uređajima.
Neprimereni ili potencijalno problematični upiti
Čak i kada je nešto izrečeno u šali, poput pitanja kako nekoga trajno ukloniti, takav sadržaj može izazvati probleme. AI sistemi obično ne odgovaraju na takve zahteve, a sumnjivi upiti mogu biti dodatno analizirani u skladu sa pravilima platforme.
Medicinski podaci
Sve je više korisnika koji AI koriste kao zamenu za internet pretragu ili čak kao neformalni medicinski savetnik. U redu je tražiti objašnjenje nekog pojma, ali bez unošenja ličnih podataka. Umesto detaljnog opisa sopstvenog stanja, bolje je postaviti opšte pitanje, na primer: „Koje vežbe se preporučuju muškarcu u tridesetim godinama koji ima problem sa išijasom?“
Ako niste sigurni da li je neku informaciju bezbedno podeliti, postavite sebi jednostavno pitanje: da li biste želeli da vaš upit bude javno objavljen? Ako je odgovor negativan, bolje je da takav sadržaj ne unosite u AI sistem.






