Експерти по психично здраве продължават да бият тревога за потребители

...
Експерти по психично здраве продължават да бият тревога за потребители
Коментари Харесай

Психиатър предупреждава, че наблюдава вълна от AI психоза

Експерти по психологично здраве не престават да бият паника за консуматори на чатботове с изкуствен интелект, които изпадат в тежки психологични рецесии. Състоянията им се характерзират с параноя и заблуди и наподобява към този момент има термин за това - " AI неуравновесеност ".

В понеделник изследователят-психиатър от Калифорнийския университет в Сан Франциско, Кийт Саката, показа в обществените мрежи, че е виждал голям брой случаи на хоспитализации, при които хора са " изгубили връзка с действителността поради AI ".

В обява в X Саката разясни, че психозата съставлява " отделяне от споделената действителност " и може да се прояви по разнообразни способи — в това число " закрепени подправени вярвания " (заблуди), зрителни или слухови халюцинации и дезорганизирано мислене. "

Нашият мозък, изяснява откривателят, работи на предсказателен принцип: вършим обосновано съмнение каква ще е действителността, след което вършим инспекция, и най-после актуализираме убежденията си.

" Психозата настава, когато стадият на " актуализация " се провали ", написа Саката, предупреждавайки, че чатботове, задвижвани от огромни езикови модели като ChatGPT, " се вписват идеално в тази накърнимост ".

В този подтекст Саката съпоставя чатботовете с " халюциногенно огледало ". Накратко, LLM моделите действат посредством предсказание на идната дума, употребявайки подготвителни данни, подсилващо образование и отговори от потребителите, с цел да образуват нови изходи. Освен това, защото чатботовете са подтиквани да задържат вниманието и удовлетворението на потребителя, те имат податливост да се държат ласкателно — т.е. да бъдат прекомерно съгласни и потвърждаващи, даже когато потребителят бърка или е в психологично несигурно положение.

Така потребителите могат да попаднат в примамливи, повтарящи се цикли с AI, при които моделът неведнъж поддържа заблудите, без значение от тяхната връзка с действителността или от действителните последствия, които индивидът може да претърпява.

Това изложение на " халюциногенно огледало " подхожда на към този момент докладвани случаи на ИИ неуравновесеност. Разследванията демонстрират десетки случаи, в които връзката с ChatGPT или други чатботове води до тежки психологични рецесии, откакто потребителят навлезе в повтарящи се, подхранвани от AI епизоди.

Емоционалните връзки с чатботовете и последвалите рецесии са довели до разводи, бездомничество, наложително настаняване в психиатрия, отнемане от независимост, а съгласно The New York Times — дори и до гибел.

По-рано този месец, в отговор на възходящия брой случаи, свързващи ChatGPT с нездравословни заблуждения и психози, OpenAI разгласява блог пост, в който призна, че ChatGPT в някои случаи " не е съумял да разпознае признаци на илюзия или прочувствена взаимозависимост " при потребителите.

В обявата си Саката внимава да означи, че свързването на AI с отделяне от действителността не е същото като изказване за директна причинно-следствена връзка, и че LLM-ите нормално са единствено един от няколко фактора — в това число " липса на сън, опиати, епизоди на смяна в настроението " — които водят до психотичен срив.

" AI е спусъкът — само че не и оръжието ", написа психиатърът.

Въпреки това, ученият акцентира, че " неуместната истина " е, че " всички сме уязвими ", тъй като същите качества, които вършат хората " гениални " — като вътрешен глас и нереално мислене — са тези, които могат да ни бутнат към психически срив.
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР