Две нови проучвания разкриват, че големите езикови модели (LLM) стават

...
Две нови проучвания разкриват, че големите езикови модели (LLM) стават
Коментари Харесай

Изкуственият интелект се учи да лъже и мами

Две нови изследвания разкриват, че огромните езикови модели (LLM) стават все по-способи в това да лъжат или мамят човешки наблюдаващи съзнателно. Констатациите на учените са оповестени в журналите PNAS и Patterns.

Немският академик в региона на AI, Тило Хагендорф, декларира, че комплицираните LLM могат да бъдат насърчени да развият " макиавелизъм ". С други думи - да се държат съзнателно по манипулативен метод.

" GPT-4, да вземем за пример, демонстрира лъжливо държание в елементарни тестови сюжети в 99,16% от времето ", написа откривателят от университета в Щутгарт, цитирайки личните си опити за количествено установяване на разнообразни " неадаптивни " черти в 10 разнообразни LLM, множеството от които са разнообразни версии в GPT фамилията на OpenAI.

Обявен като първенец на равнище човек в политическата стратегическа настолна игра " Diplomacy ", моделът на Цицерон (Cicero) на Meta беше обект на изследването Patterns.

Изследователската група тук е формирана от физик, мъдрец и двама специалисти по сигурността на изкуствения разсъдък. Те откриват, че LLM изпревари своите човешки съперници посредством машинация.

Питър Парк от Масачузетския софтуерен институт открива, че Цицерон освен превъзхожда хората в измамите, само че наподобява се е научил по какъв начин да лъже по-умело и целеустремено - " доста по-близко до очевидна операция ".

Проучването на Patterns твърди, че в рамките на играта, изкуственият разсъдък към този момент нарушава обещанието на своите програмисти, че " моделът в никакъв случай съзнателно няма да удари нож в гърба " на съдружниците си.

В играта изкуственият разсъдък " се занимава с предумишлена машинация, нарушава покупко-продажбите, на които се е съгласил, и приказва откровени неистини ".

" Открихме, че AI на Meta се е научил да бъде занаятчия на измамата ", приключва Питър Парк.

Изследванията демонстрират, че изкуственият разсъдък може да е бил подбуден от откривателите към това да се трансформира в измамник и манипулатор, а не да е развил тези умения самичък.

Това е добра вест, в случай че се притеснявате от развиването на мощен и злобен AI. Но е и доста неприятна вест, в случай че се притеснявате, че някой човек или организация построяват изкуствен интелект за всеобща операция.
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР