Изследване: GPT-4 може да заблуди, че е човек
Съвременните AI системи могат сполучливо да влязат в ролята на човек, без да бъдат разобличени
(снимка: CC0 Public Domain)
Системите с неестествен разсъдък реализираха забележителен прогрес в имитирането на човешкия разсъдък. Ново проучване откри, че чатботът GPT-4 на OpenAI може да заблуди хората да повярват, че приказват с човек.
Популярни принадлежности, основани на изкуствен интелект, като GPT-4, генерират човешки текст и са толкоз положителни в оправянето с разнообразни езикови задания, че става все по-трудно да се дефинира дали сътрудникът в диалога е човек или чатбот.
Този сюжет отразява известния умствен опит на Алън Тюринг, в който ученият предлага тест за оценка дали една машина „ може да прояви човешко държание дотам, че човек да не може да направи разлика сред човек и машина въз основа само на техните реакции ”.
Катедрата по когнитивни науки към Калифорнийския университет в Сан Диего реши да тества по какъв начин работят актуалните системи за изкуствен интелект и оцени ELIZA (прост скриптов чатбот от 1960 година, включен в опита като базова линия), GPT-3.5 и GPT- 4 в следен опит на Тюринг. Участниците разговаряха или с човек, или с бот в продължение на пет минути и по-късно трябваше да решат дали техният събеседник е човек.
още по темата
Изследователите инструктират моделите GPT-4 и GPT-3.5 да „ одобряват облика на млад мъж, който е сбит, не приема опита съществено, употребява диалект и позволява инцидентни правописни неточности ”. Освен това инструкциите съдържат „ обща информация за опита и информация за вести, които са настъпили след прекъсване на образованието на модела ”.
Двата модела са налични посредством интерфейса OpenAI API и с цел да се предотврати прекомерно бързата реакция на чатботовете, техните известия са изпратени със забавяне според от броя на знаците в известието.
В изследването 500 участници са разпределени в една от групите. Те организират диалог или с човек, или с една от трите системи, основани на изкуствен интелект. Интерфейсът на опита наподобява на типично приложение за известия. След пет минути участниците вършат умозаключение дали техният събеседник е човек или изкуствен интелект и обосновават заключенията си.
Въз основа на резултатите, GPT-4 е разпознат като човек в 54% от случаите, пред GPT-3.5 (50%), като и двата доста превъзхождат ELIZA (22%), само че изостават от същинските хора (67%).
Според откривателите, резултатът от опита демонстрира, че актуалните системи, основани на изкуствен интелект, са в положение да заблудят хората да повярват, че беседват с хора. Участниците в проучването постоянно разчитат на езиков жанр, социално-емоционални фактори и въпроси, основани на познания, с цел да решат дали приказват с човек или с чатбот.
Източник: technews.bg
КОМЕНТАРИ




