ChatGPT разби най-човешкото нещо в нас – и ние позволихме

...
ChatGPT разби най-човешкото нещо в нас – и ние позволихме
Коментари Харесай

Теорията на игрите е разбита: Как изкуственият интелект пренаписва човешките стратегически принципи

ChatGPT разруши най-човешкото нещо в нас – и ние позволихме това да се случи.

С бързото разпространяване на огромните езикови модели като ChatGPT доста компании и консуматори все по-често им делегират вземането на решения в области, вариращи от изпращането на текстови известия до воденето на договаряния и даже вземането на решения с последствия за другите. Мащабно изследване, извършено измежду близо 3000 души, обаче откри, че наличието на ИИ в междуличностните взаимоотношения провокира измежду хората прекомерно смесени реакции. Вместо предстоящата помощ и нараснала успеваемост, се следи понижаване на доверието, честността и съдействието – главните детайли, върху които се построяват обществените взаимоотношения.

Нов опит обхвана пет типичен стопански игри за двама играчи – „ Ултиматум “, „ Доверие “, „ Дилемата на пандизчията “, „ Лов на елени “ и „ Координация “. Участниците знаеха, че техният сътрудник в играта може да бъде действително лице или лице, което е делегирало решението на ChatGPT. В някои случаи това се е правило транспарантно, а в други – скрито. В резултат на това се оказа, че самите решения на изкуствения разсъдък, въпреки и рационални и постоянно даже по-благоприятни, провокират отрицателна реакция у хората. Това води до понижаване на равнището на доверие и правдивост в игрите, до намаление на склонността към взаимна работа и до понижаване на цялостната успеваемост на взаимоотношенията.

Интересно е, че самите участници с подготвеност делегират решенията на ChatGPT – изключително в случай че другата страна не знае за делегирането. Този метод понижава личната им отговорност и заобикаля обясненията, които биха били нужни, в случай че вземат решението независимо. В същото време степента на прехвърляне доста се усилва в изискванията на неяснота: в случай че сътрудникът не знаеше дали решението се взема от индивида или от изкуствения разсъдък, участниците са два пъти по-склонни да изберат разновидността с изкуствения разсъдък. Това демонстрира, че хората са наясно, че експлицитното присъединяване на ИИ може да се схване отрицателно и да повлияе на резултата от взаимоотношението.

Когато участниците се сблъскат с обстоятелството, че сътрудникът им явно употребява ChatGPT, държанието им се трансформира: те оферират по-малки суми в играта „ Ултиматум “, по-малко сътрудничат в алтернативите и като цяло чакат по-малко доброжелателност от колегата си. Ако обаче не знаят дали става дума за човек или за изкуствен интелект, те се държат по този начин, като че ли пред тях е същински човек. Това допуска, че точно сега на осъзнаване на присъединяване на ИИ се демонстрира предубедеността към него.

Създателите на това забавно изследване също по този начин ревизираха дали персонализирането на ИИ може да промени усещанията. За тази цел участниците авансово дават отговор на седем сдвоени въпроса, отразяващи персоналните им желания (например „ вътрешен глас или преценка “, „ нарцисизъм или алтруизъм “), а ChatGPT приспособява решенията си към тези отговори.

Дори тези ограничения обаче не съумяха да възстановят доверието – участниците към момента смятаха, че изкуственият разсъдък не отразява изцяло възгледите и желанията на колегата им.

Отделна задача е била да се откри до каква степен добре може да се разпознае решението взето от ИИ. За тази цел на самостоятелни оценители бяха показани двойки решения, едното от които беше взето от индивида, а другото – от изкуствения разсъдък. Без да получат обяснения, те отгатват съвсем на инцидентен принцип. Но в случай че решението се мотивираше, ИИ беше различим в множеството игри – обясненията му бяха по-формални, механически и се отнасяха до теоретичните упования. ИИ беше изключително неприятен в прикриването си в играта „ Дилемата на пандизчията “, където постоянно избира съдействие, за разлика от хората, които са склонни да бъдат по-предпазливи. В същото време участниците по-често грешаха в играта „ Координация “, където ИИ даде най-подобни на човешките пояснения.

Наблюдаваният резултат на понижена обществена успеваемост при явното присъединяване на ChatGPT се оказа резистентен на всички външни фактори – възраст, пол, равнище на обучение, даже опит в потреблението на ИИ. Така че не става въпрос за неведение или боязън от технологиите, а за скрита обществена реакция към обстоятелството, че решенията, засягащи други хора, не се вземат от човек. Дори когато даден ИИ модел работи в полза на хората и е потребен, отношението към него остава резервирано.

Тези резултати удостоверяват съществуването на феномена на отменяне на логаритъма, прочут от проучванията на класическите автоматизирани системи. За първи път обаче това събитие бе записано в подтекста на универсалните езикови модели, способни на пълноценно обществено взаимоотношение. В този случай прозрачността на потреблението на ИИ, която се смята за гаранция за етичност, утежнява обстановката: когато се знае, че решението е взето от ИИ, доверието и честността падат по-силно.

Проучването демонстрира, че бъдещите регулаторни ограничения, като да вземем за пример законът на Европейски Съюз за ИИ, следва да регистрират освен задължението за обявяване на обстоятелството на потребление на ИИ, само че и вероятните негативни последствия от тази бистрота. Не е задоволително просто да се уведомяват хората за потреблението на ИИ – належащо е също по този начин да се построи доверие и да се обмислят механизми, които ще понижат възприемането на сходни решения като неетични или бездушни. В противоположен случай даже и най-интелигентните модели рискуват да се трансфорат в обществено токсични. Както демонстрират изследванията в региона на общественото инженерство, човешкият фактор остава един от най-уязвимите детайли на всяка система, а внедряването на ИИ изисква схващане на психическите аспекти на взаимоотношението с технологиите.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР