Изкуственият интелект се учи да лъже и мами
Две нови изследвания разкриват, че огромните езикови модели (LLM) стават все по-способи в това да лъжат или мамят човешки наблюдаващи съзнателно. Констатациите на учените са оповестени в журналите PNAS и Patterns.
Немският академик в региона на AI, Тило Хагендорф, декларира, че комплицираните LLM могат да бъдат насърчени да развият " макиавелизъм ". С други думи - да се държат съзнателно по манипулативен метод.
" GPT-4, да вземем за пример, демонстрира лъжливо държание в елементарни тестови сюжети в 99,16% от времето ", написа откривателят от университета в Щутгарт, цитирайки личните си опити за количествено установяване на разнообразни " неадаптивни " черти в 10 разнообразни LLM, множеството от които са разнообразни версии в GPT фамилията на OpenAI.
Обявен като първенец на равнище човек в политическата стратегическа настолна игра " Diplomacy ", моделът на Цицерон (Cicero) на Meta беше обект на изследването Patterns.
Изследователската група тук е формирана от физик, мъдрец и двама специалисти по сигурността на изкуствения разсъдък. Те откриват, че LLM изпревари своите човешки съперници посредством машинация.
Питър Парк от Масачузетския софтуерен институт открива, че Цицерон освен превъзхожда хората в измамите, само че наподобява се е научил по какъв начин да лъже по-умело и целеустремено - " доста по-близко до очевидна операция ".
Проучването на Patterns твърди, че в рамките на играта, изкуственият разсъдък към този момент нарушава обещанието на своите програмисти, че " моделът в никакъв случай съзнателно няма да удари нож в гърба " на съдружниците си.
В играта изкуственият разсъдък " се занимава с предумишлена машинация, нарушава покупко-продажбите, на които се е съгласил, и приказва откровени неистини ".
" Открихме, че AI на Meta се е научил да бъде занаятчия на измамата ", приключва Питър Парк.
Изследванията демонстрират, че изкуственият разсъдък може да е бил подбуден от откривателите към това да се трансформира в измамник и манипулатор, а не да е развил тези умения самичък.
Това е добра вест, в случай че се притеснявате от развиването на мощен и злобен AI. Но е и доста неприятна вест, в случай че се притеснявате, че някой човек или организация построяват изкуствен интелект за всеобща операция.
Немският академик в региона на AI, Тило Хагендорф, декларира, че комплицираните LLM могат да бъдат насърчени да развият " макиавелизъм ". С други думи - да се държат съзнателно по манипулативен метод.
" GPT-4, да вземем за пример, демонстрира лъжливо държание в елементарни тестови сюжети в 99,16% от времето ", написа откривателят от университета в Щутгарт, цитирайки личните си опити за количествено установяване на разнообразни " неадаптивни " черти в 10 разнообразни LLM, множеството от които са разнообразни версии в GPT фамилията на OpenAI.
Обявен като първенец на равнище човек в политическата стратегическа настолна игра " Diplomacy ", моделът на Цицерон (Cicero) на Meta беше обект на изследването Patterns.
Изследователската група тук е формирана от физик, мъдрец и двама специалисти по сигурността на изкуствения разсъдък. Те откриват, че LLM изпревари своите човешки съперници посредством машинация.
Питър Парк от Масачузетския софтуерен институт открива, че Цицерон освен превъзхожда хората в измамите, само че наподобява се е научил по какъв начин да лъже по-умело и целеустремено - " доста по-близко до очевидна операция ".
Проучването на Patterns твърди, че в рамките на играта, изкуственият разсъдък към този момент нарушава обещанието на своите програмисти, че " моделът в никакъв случай съзнателно няма да удари нож в гърба " на съдружниците си.
В играта изкуственият разсъдък " се занимава с предумишлена машинация, нарушава покупко-продажбите, на които се е съгласил, и приказва откровени неистини ".
" Открихме, че AI на Meta се е научил да бъде занаятчия на измамата ", приключва Питър Парк.
Изследванията демонстрират, че изкуственият разсъдък може да е бил подбуден от откривателите към това да се трансформира в измамник и манипулатор, а не да е развил тези умения самичък.
Това е добра вест, в случай че се притеснявате от развиването на мощен и злобен AI. Но е и доста неприятна вест, в случай че се притеснявате, че някой човек или организация построяват изкуствен интелект за всеобща операция.
Източник: dnesplus.bg
КОМЕНТАРИ




