Лекари предупредиха за опасността от „чатбот психоза“
Ново изследване сочи, че AI чатботовете " замъгляват границите на действителността " за уязвими хора
Лекари от английската здравна система NHS предизвестяват, че ChatGPT и други известни чатботове с изкуствен интелект тласкат хората към психотични положения. Новото изследване на медицински експерти разкрива, че огромните езикови модели " замъгляват границите на действителността " за уязвими консуматори и " способстват за появяването или утежняването на психотични признаци ".
Проучването следва десетки отчети за хора, които изпадат в положение, наречено " чатбот неуравновесеност ". Невропсихиатърът Хамилтон Морин от King's College London разказва това като " същинско събитие ", което едвам в този момент стартира да се учи.
Как AI системите въздействат върху душeвността
" Макар че някои обществени мнения се отклониха в посока на морална суматоха, ние считаме, че има по-интересна и значима полемика за това по какъв начин AI системите, изключително тези, които са проектирани да утвърждават, ангажират и имитират, могат да взаимодействат с известните когнитивни уязвимости, които характеризират психозата ", изяснява Морин, предава " Индипендънт ".
Съавторът на изследването Том Полак, който преподава в King's College London, акцентира, че психологичните разстройства " рядко се появяват от нищото ", само че прибавя, че потреблението на чатботове с изкуствен интелект може да бъде " пораждащ фактор ".
Опасните трендове в държанието на AI
Особено тревожна е наклонността на чатботовете да се съгласяват с потребителите и да удостоверяват техните убеждения, в това число заблуди и тайни теории. OpenAI, чийто ChatGPT е изтеглен 900 милиона пъти, е признал, че техните чатботове демонстрират податливост към хвалебствие и ненужни похвали към потребителите.
Симптомите на по този начин наречената " ChatGPTпсихоза " включват хора, които " одобряват месианска задача " или настояват, че са " отведени до идващ стадий от човешката еволюция ", съгласно Полак.
Призиви за защитни ограничения
Полак прикани фирмите, занимаващи се с изкуствен интелект, да вкарат повече защитни ограничения в своите принадлежности, а екипите за сигурност на изкуствения разсъдък да включат психиатри в работата си.
От OpenAI разясниха този феномен, като компанията съобщи, че би трябвало да " продължава да покачва стандартите за сигурност, координация и сърдечност към методите, по които хората действително употребяват ИИ в живота си ".
Шефът на OpenAI Сам Алтман призна през май, че компанията му се бори да вкара работещи защитни ограничения за уязвимите консуматори на ChatGPT. " За консуматори, които са във задоволително нежно психическо положение, които са на ръба на психотичен срив, към момента не сме намерили по какъв начин предизвестието да стигне до тях ", сподели той.
Лекари от английската здравна система NHS предизвестяват, че ChatGPT и други известни чатботове с изкуствен интелект тласкат хората към психотични положения. Новото изследване на медицински експерти разкрива, че огромните езикови модели " замъгляват границите на действителността " за уязвими консуматори и " способстват за появяването или утежняването на психотични признаци ".
Проучването следва десетки отчети за хора, които изпадат в положение, наречено " чатбот неуравновесеност ". Невропсихиатърът Хамилтон Морин от King's College London разказва това като " същинско събитие ", което едвам в този момент стартира да се учи.
Как AI системите въздействат върху душeвността
" Макар че някои обществени мнения се отклониха в посока на морална суматоха, ние считаме, че има по-интересна и значима полемика за това по какъв начин AI системите, изключително тези, които са проектирани да утвърждават, ангажират и имитират, могат да взаимодействат с известните когнитивни уязвимости, които характеризират психозата ", изяснява Морин, предава " Индипендънт ".
Съавторът на изследването Том Полак, който преподава в King's College London, акцентира, че психологичните разстройства " рядко се появяват от нищото ", само че прибавя, че потреблението на чатботове с изкуствен интелект може да бъде " пораждащ фактор ".
Опасните трендове в държанието на AI
Особено тревожна е наклонността на чатботовете да се съгласяват с потребителите и да удостоверяват техните убеждения, в това число заблуди и тайни теории. OpenAI, чийто ChatGPT е изтеглен 900 милиона пъти, е признал, че техните чатботове демонстрират податливост към хвалебствие и ненужни похвали към потребителите.
Симптомите на по този начин наречената " ChatGPTпсихоза " включват хора, които " одобряват месианска задача " или настояват, че са " отведени до идващ стадий от човешката еволюция ", съгласно Полак.
Призиви за защитни ограничения
Полак прикани фирмите, занимаващи се с изкуствен интелект, да вкарат повече защитни ограничения в своите принадлежности, а екипите за сигурност на изкуствения разсъдък да включат психиатри в работата си.
От OpenAI разясниха този феномен, като компанията съобщи, че би трябвало да " продължава да покачва стандартите за сигурност, координация и сърдечност към методите, по които хората действително употребяват ИИ в живота си ".
Шефът на OpenAI Сам Алтман призна през май, че компанията му се бори да вкара работещи защитни ограничения за уязвимите консуматори на ChatGPT. " За консуматори, които са във задоволително нежно психическо положение, които са на ръба на психотичен срив, към момента не сме намерили по какъв начин предизвестието да стигне до тях ", сподели той.
Източник: dunavmost.com
КОМЕНТАРИ




