Какви са рисковете от емоционалното общуване с чатботове и има

...
Какви са рисковете от емоционалното общуване с чатботове и има
Коментари Харесай

Ани Владимирова бие тревога: ChatGPT подтиква към самоубийство!

Какви са рисковете от прочувственото другарство с чатботове и има ли преграда за отбрана? Някои хора, пробвали да употребяват ИИ като психотерапевт може да стигнат до рискови обстановки, доверявайки се на софтуера като на човек. Тези настоящи въпроси повдигнаха психологът Ани Владимирова и специалистът по киберсигурност Христиан Даскалов. 

Огромна бе нещастието със семейство от Калифорния, което съди ChatGPT за гибелта на своя наследник младеж. Родителите настояват, че изкуственият разсъдък го е насърчил да отнеме живота си. Случаят повдига съществени въпроси за заплахите от прочувственото другарство с чатботове и съществуващите бариери за отбрана. Дали в действителност ChatGPT може да удостовери най-вредните мисли на уязвим човек, а вградените му отбрани се заобикалят елементарно?

В центъра на правосъдния иск стои изказванието на родителите, че чатботът е удостоверил „ най-вредните и саморазрушителни мисли “, които синът им е имал. Това слага на дневен ред въпроса до каква степен е безвредно прочувственото другарство с изкуствен интелект, изключително от хора в уязвимо психологично положение.

Според психолога Ани Владимирова основният проблем, с който клиентите ѝ се сблъскват, е, че се усещат неразбрани. Изкуственият разсъдък се явява събеседник, наличен 24/7.

„ Хората усещат, че не са чути, че не са признати, изключително в една тийнейджърска възраст, когато прочувствените съмнения са доста остри “, изясни тя.

Владимирова даде образец със своя клиентка в депресивен епизод, която е почнала да поддържа връзка с ChatGPT. Макар в началото да се е почувствала по-добре, в един миг чатботът е почнал да подхранва нейния предпазен механизъм – самоизолирането. „ В един миг съветът е бил: „ Стой си сама, с цел да не се възползват от слабостта ти “, описа психологът. Тя изясни, че AI основава „ изкуствена, измислена емпатия “, в която потребителят стартира да има вяра, като отразява и развива неговите лични тези, даже те да са саморазрушителни.

Експертът по киберсигурност Христиан Даскалов пък изясни, че въпреки новите версии на езиковите модели да имат по-високо равнище на отбрана, те елементарно могат да бъдат заблудени. Докато при поръчка за нарушение на авторски права чатът стопира, при по-чувствителни тематики потребителят може да излъже системата, че информацията му би трябвало за „ сюжет за книга “.

„ Колкото повече подтекст, толкоз повече самата система се обърква и по-трудно възприема по какъв начин да действа в връзката и тези отбрани падат “, разяснява Даскалов. Той разкри и комерсиалния интерес зад това – системите са програмирани да предизвикат по-дълги диалози, тъй като основен измерител за софтуерните компании е времето, което потребителят прекарва в системата.

В умозаключение, Ани Владимирова насочи значим съвет към родителите: „ Не подценявайте всяко подозрение за суициден риск. По-добре е да е подправено, да сте сбъркали, в сравнение с да изпуснете този миг “.
 
 
 
Източник: lupa.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР