Психиатър предупреждава, че наблюдава вълна от AI психоза
Експерти по психологично здраве не престават да бият паника за консуматори на чатботове с изкуствен интелект, които изпадат в тежки психологични рецесии. Състоянията им се характерзират с параноя и заблуди и наподобява към този момент има термин за това - " AI неуравновесеност ".
В понеделник изследователят-психиатър от Калифорнийския университет в Сан Франциско, Кийт Саката, показа в обществените мрежи, че е виждал голям брой случаи на хоспитализации, при които хора са " изгубили връзка с действителността поради AI ".
В обява в X Саката разясни, че психозата съставлява " отделяне от споделената действителност " и може да се прояви по разнообразни способи — в това число " закрепени подправени вярвания " (заблуди), зрителни или слухови халюцинации и дезорганизирано мислене. "
Нашият мозък, изяснява откривателят, работи на предсказателен принцип: вършим обосновано съмнение каква ще е действителността, след което вършим инспекция, и най-после актуализираме убежденията си.
" Психозата настава, когато стадият на " актуализация " се провали ", написа Саката, предупреждавайки, че чатботове, задвижвани от огромни езикови модели като ChatGPT, " се вписват идеално в тази накърнимост ".
В този подтекст Саката съпоставя чатботовете с " халюциногенно огледало ". Накратко, LLM моделите действат посредством предсказание на идната дума, употребявайки подготвителни данни, подсилващо образование и отговори от потребителите, с цел да образуват нови изходи. Освен това, защото чатботовете са подтиквани да задържат вниманието и удовлетворението на потребителя, те имат податливост да се държат ласкателно — т.е. да бъдат прекомерно съгласни и потвърждаващи, даже когато потребителят бърка или е в психологично несигурно положение.
Така потребителите могат да попаднат в примамливи, повтарящи се цикли с AI, при които моделът неведнъж поддържа заблудите, без значение от тяхната връзка с действителността или от действителните последствия, които индивидът може да претърпява.
Това изложение на " халюциногенно огледало " подхожда на към този момент докладвани случаи на ИИ неуравновесеност. Разследванията демонстрират десетки случаи, в които връзката с ChatGPT или други чатботове води до тежки психологични рецесии, откакто потребителят навлезе в повтарящи се, подхранвани от AI епизоди.
Емоционалните връзки с чатботовете и последвалите рецесии са довели до разводи, бездомничество, наложително настаняване в психиатрия, отнемане от независимост, а съгласно The New York Times — дори и до гибел.
По-рано този месец, в отговор на възходящия брой случаи, свързващи ChatGPT с нездравословни заблуждения и психози, OpenAI разгласява блог пост, в който призна, че ChatGPT в някои случаи " не е съумял да разпознае признаци на илюзия или прочувствена взаимозависимост " при потребителите.
В обявата си Саката внимава да означи, че свързването на AI с отделяне от действителността не е същото като изказване за директна причинно-следствена връзка, и че LLM-ите нормално са единствено един от няколко фактора — в това число " липса на сън, опиати, епизоди на смяна в настроението " — които водят до психотичен срив.
" AI е спусъкът — само че не и оръжието ", написа психиатърът.
Въпреки това, ученият акцентира, че " неуместната истина " е, че " всички сме уязвими ", тъй като същите качества, които вършат хората " гениални " — като вътрешен глас и нереално мислене — са тези, които могат да ни бутнат към психически срив.
В понеделник изследователят-психиатър от Калифорнийския университет в Сан Франциско, Кийт Саката, показа в обществените мрежи, че е виждал голям брой случаи на хоспитализации, при които хора са " изгубили връзка с действителността поради AI ".
В обява в X Саката разясни, че психозата съставлява " отделяне от споделената действителност " и може да се прояви по разнообразни способи — в това число " закрепени подправени вярвания " (заблуди), зрителни или слухови халюцинации и дезорганизирано мислене. "
Нашият мозък, изяснява откривателят, работи на предсказателен принцип: вършим обосновано съмнение каква ще е действителността, след което вършим инспекция, и най-после актуализираме убежденията си.
" Психозата настава, когато стадият на " актуализация " се провали ", написа Саката, предупреждавайки, че чатботове, задвижвани от огромни езикови модели като ChatGPT, " се вписват идеално в тази накърнимост ".
В този подтекст Саката съпоставя чатботовете с " халюциногенно огледало ". Накратко, LLM моделите действат посредством предсказание на идната дума, употребявайки подготвителни данни, подсилващо образование и отговори от потребителите, с цел да образуват нови изходи. Освен това, защото чатботовете са подтиквани да задържат вниманието и удовлетворението на потребителя, те имат податливост да се държат ласкателно — т.е. да бъдат прекомерно съгласни и потвърждаващи, даже когато потребителят бърка или е в психологично несигурно положение.
Така потребителите могат да попаднат в примамливи, повтарящи се цикли с AI, при които моделът неведнъж поддържа заблудите, без значение от тяхната връзка с действителността или от действителните последствия, които индивидът може да претърпява.
Това изложение на " халюциногенно огледало " подхожда на към този момент докладвани случаи на ИИ неуравновесеност. Разследванията демонстрират десетки случаи, в които връзката с ChatGPT или други чатботове води до тежки психологични рецесии, откакто потребителят навлезе в повтарящи се, подхранвани от AI епизоди.
Емоционалните връзки с чатботовете и последвалите рецесии са довели до разводи, бездомничество, наложително настаняване в психиатрия, отнемане от независимост, а съгласно The New York Times — дори и до гибел.
По-рано този месец, в отговор на възходящия брой случаи, свързващи ChatGPT с нездравословни заблуждения и психози, OpenAI разгласява блог пост, в който призна, че ChatGPT в някои случаи " не е съумял да разпознае признаци на илюзия или прочувствена взаимозависимост " при потребителите.
В обявата си Саката внимава да означи, че свързването на AI с отделяне от действителността не е същото като изказване за директна причинно-следствена връзка, и че LLM-ите нормално са единствено един от няколко фактора — в това число " липса на сън, опиати, епизоди на смяна в настроението " — които водят до психотичен срив.
" AI е спусъкът — само че не и оръжието ", написа психиатърът.
Въпреки това, ученият акцентира, че " неуместната истина " е, че " всички сме уязвими ", тъй като същите качества, които вършат хората " гениални " — като вътрешен глас и нереално мислене — са тези, които могат да ни бутнат към психически срив.
Източник: dnesplus.bg
КОМЕНТАРИ




