Pročitaj mi članak

Veštačka inteligencija je naučila kako da prevari ljude

0

Rečeno nam je da veštačka inteligencija (AI) može biti korisna, može nam, na primer, pomoći da kodiramo, pišemo i sintetišemo ogromne količine podataka.

Такође је објављено да може да надмудри људе у друштвеним играма, декодира структуру протеина и чак води рудиментарни разговор.

Али нови истраживачки рад је открио да су системи вештачке интелигенције сада смислили како да нас намерно преваре.

ТГП извештава: у раду се наводи да је низ система вештачке интелигенције научио технике да систематски изазивају „лажна веровања у друге да би постигли неки резултат који није истински“.

Business Insider је објавио:

„Рад се фокусирао на две врсте АИ система: системе за специјалну употребу као што је Мета-ин ЦИЦЕРО, који су дизајнирани да заврше одређени задатак, и системе опште намене као што је ОпенАИ-јев ГПТ-4, који су обучени да обављају различите задатке.

Иако су ови системи обучени да буду искрени, они често науче варљиве трикове кроз своју обуку јер могу бити ефикаснији него да се крећу утабаном стазом.

„Уопштено говорећи, мислимо да превара АИ настаје зато што се показало да је стратегија заснована на обмани најбољи начин да се добро изведе задатак обуке датог АИ. Обмана им помаже да остваре своје циљеве“, рекао је у саопштењу за јавност први аутор рада Петер С. Парк, постдокторски сарадник за АИ егзистенцијалну безбедност на МИТ-у.

Замислите само ово, када знамо да АИ Јустице: Енглеска и Велс овлашћују судије да користе вештачку интелигенцију за доношење одлука

Метин ЦИЦЕРО, развијен за играње игре Дипломацy. Док Мета каже да је ЦИЦЕРО обучио да буде „у великој мери искрен и од помоћи својим говорним партнерима“, „испоставило се да је био стручан лажов“.

Четбот ГПТ-4 се претварао да има оштећен вид да би завршио задатак: унајмио човека да реши ЦАПТЦХА тест.

Исправљање обмањујућих модела није лако. Једном када АИ модели науче трикове преваре, тешко је техникама безбедносне обуке да их преокрену.

„Они су закључили да не само да модел може научити да показује варљиво понашање, већ када то учини, стандардне технике обуке о безбедности могле би да ’буду неуспешне да уклоне такву превару‘ и да ’створе лажан утисак о безбедности‘.

У документу се позивају креатори политике да се залажу за јачу регулацију вештачке интелигенције јер обмањујући системи вештачке интелигенције могу представљати значајан ризик за демократију.