Ново проучване предполага, че усъвършенстваните AI модели са доста добри

...
Ново проучване предполага, че усъвършенстваните AI модели са доста добри
Коментари Харесай

Проучване: Усъвършенстваните AI модели се държат като по-глупави, отколкото в действителност са

Ново изследване допуска, че усъвършенстваните AI модели са много положителни в това да се държат като по-глупави, в сравнение с в реалност са. Това може да има големи и плашещи последици, тъй като изкуственият разсъдък продължава да става все по-умен.

Изследователи от Берлинския университет Хумболт откриха, че при тестване на огромен езиков модел (LLM) по по този начин наречените критерии за " доктрина на мозъка " логаритъмът може да имитира стадиите на проучване на езика, показани при деца, като в това време крие същинските си качества.

В изявление за PsyPost, научният помощник на Хумболтовия университет и основен създател на проучването Анна Маклова, която също е специалист по психолингвистика, изясни по какъв начин нейната област на проучване е обвързвана с откритието. " Благодарение на психолингвистиката имаме относително изцяло схващане за това на какво са способни децата на разнообразни възрасти ", сподели Марклова пред изданието. " По-специално, теорията на мозъка играе значима роля, защото изследва вътрешния свят на детето посредством наблюдаване на елементарни статистически модели. "

С насочена към децата доктрина за мозъка като декор, откривателят и нейните сътрудници от Карловия университет в Прага се пробваха да дефинират дали LLM като GPT-4 на OpenAI " могат да се преструват на по-малко способни, в сравнение с са. "

Когато бяха подложени на набор от повече от 1000 тествания и когнитивни проби, тези " симулирани детски персони " в действителност изглеждаше, че напредват съвсем по същия метод като децата на тази възраст. По този метод моделите могат да се преструват на по-малко интелигентни от те са.

" Големите езикови модели ", заключава Марклова, " са способни да симулират по-нисък разсъдък, в сравнение с имат ".

В последна сметка, както сподели Маклова пред уеб страницата, тези открития биха могли да подкрепят развиването на изкуствения суперинтелект (ASI), идната стъпка след човешкия общ изкуствен интелект (AGI) — и да оказват помощ да го създадем по-безопасен, откакто го създадем, написа dir.bg.

" При създаването на ASI би трябвало да внимаваме да не пожелаваме те да подражават на хората и затова да лимитират качествата си ", сподели тя пред PsyPost. " Освен това допускам, че можем да подценим техните качества за нескончаем интервал от време, което не е безвредна обстановка. "

Източник: novini.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР