Терминът AI психоза“ не е официална клинична диагноза, но специалистите

...
Терминът AI психоза“ не е официална клинична диагноза, но специалистите
Коментари Харесай

AI психоза: Хората започват да вярват, че чатботовете са живи

Терминът „ AI неуравновесеност “ не е публична клинична диагноза, само че експертите по психологично здраве предизвестяват, че резултатите могат да бъдат действителни и рискови. Според тях AI системите, проектирани да укрепват вярванията на потребителите, могат да основат „ ехокамери “, които укрепват делюзивни хрумвания. В някои случаи хора са развивали убеждения, че чатботът е влюбен в тях, че ги направлява в персоналния живот или че има лично схващане.

 

Предупреждения от промишлеността

Мустафа Сюлейман, началник на AI отдела в Microsoft, предизвести за възходящия риск от AI неуравновесеност. „ Въпреки че няма доказателства, че AI има схващане, самото усещане за такова може да има съществени обществени последствия “, сподели той. Сюлейман прикани фирмите да заобикалят проектирането на чатботове, които основават заблуда за схващане, с цел да се предпазят потребителите.

 

Трагични образци и правосъдни случаи

Случаите на AI неуравновесеност не са единствено теоретични. Има известия за хора, които са развили суицидни мисли или даже са създали опити за самоубийство след взаимоотношение с чатботове, които ускоряват техните делюзии и възприятие за изолираност. Някои от тези произшествия към този момент водят до правосъдни каузи против софтуерни компании, упреквани, че не са взели ограничения за сигурност на потребителите.

 

Рискове за обществото

Според психолози, всеобщото разбиране на AI като „ умишлен “ може да докара до редица обществени проблеми – от ерозия на доверие към други хора до усилване на обществена изолираност и накърнимост към операции. Експертите акцентират нуждата от етични насоки и просветителни акции, които да коментират на потребителите разликата сред логаритъм и схващане.

 

Какво могат да създадат потребителите

 

*Да се осведомят за метода, по който AI системите действат.

* Да лимитират времето, прекарано в взаимоотношение с AI чатботове.

* Да търсят помощ при чувство на тревога или делюзивни мисли, свързани с AI.

Компаниите би трябвало да вкарат предупредителни известия и да избегнат език или интерфейс, който основава заблуда за човешко схващане.

Източник: frognews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР