Прочитај ми чланак

7 ствари које никад не треба да користите у разговору с ChatGPT-ом, ево и зашто

0

Корисници који желе да што пре заврше неки задатак често, несвесно, деле осетљиве податке са chatbotovima и АI моделима, не размишљајући о могућим последицама.

Велики језички модели, попут ChatGPT-a, Geminija или Perplexityja, постали су саставни део свакодневице. Чак и они који их не користе директно, вероватно се ослањају на сервисе који у позадини користе вештачку интелигенцију. Иако ови алати могу значајно да олакшају пословне и приватне обавезе, њихова употреба носи и одређене безбедносне ризике.

Проблем настаје када корисници, у жељи да убрзају процес, унесу податке који не би смели да напусте њихов лични или пословни оквир. Иако chatbot није стварна особа, са аспекта приватности и заштите података треба га третирати као странца. Као што не бисте непознатој особи на улици дали личне или поверљиве информације, исто правило важи и за AI системе.

Ево које податке не би требало делити:

Лични подаци

Име и презиме, адреса становања, јединствени матични број, број личне карте или пасоша, као и фотографије тих докумената, не би смели да се уносе у AI системе. Ако користите chatbot за писање радне биографије, тражите шаблон који ћете сами попунити, уместо да уносите стварне податке.

Финансијске информације

Бројеви кредитних картица, банковних рачуна, подаци за електронско банкарство или детаљи о имовини не би требало да се деле са AI моделима. Ако тражите савет о кредиту или порезу, користите измишљене примере, а не стварне податке.

Лозинке и приступни подаци

Откривање корисничких имена и лозинки представља озбиљан безбедносни ризик. Као што никоме не бисте дали кључеве од стана, тако ни AI системима не треба поверавати приступне податке.

Приватне и личне информације

Осетљиве теме, попут здравствених проблема, породичних ситуација, гласина или личних криза, не би требало да буду предмет разговора са AI моделом. Он није ни повереник ни пријатељ коме се без задршке откривају тајне.

Поверљиви пословни подаци

Коришћење ChatGPT-а за израду уговора или обраду интерних докумената може деловати практично, али носи ризик. Подаци о патентима, прототиповима, финансијама или пословним стратегијама не би смели да се деле. Због тога многе компаније ограничавају или блокирају приступ AI алатима на службеним уређајима.

Непримерени или потенцијално проблематични упити

Чак и када је нешто изречено у шали, попут питања како некога трајно уклонити, такав садржај може изазвати проблеме. AI системи обично не одговарају на такве захтеве, а сумњиви упити могу бити додатно анализирани у складу са правилима платформе.

Медицински подаци

Све је више корисника који AI користе као замену за интернет претрагу или чак као неформални медицински саветник. У реду је тражити објашњење неког појма, али без уношења личних података. Уместо детаљног описа сопственог стања, боље је поставити опште питање, на пример: „Које вежбе се препоручују мушкарцу у тридесетим годинама који има проблем са ишијасом?“

Ако нисте сигурни да ли је неку информацију безбедно поделити, поставите себи једноставно питање: да ли бисте желели да ваш упит буде јавно објављен? Ако је одговор негативан, боље је да такав садржај не уносите у AI систем.