OpenAI призна за пропуски в мерките за безопасност след трагедията

...
OpenAI призна за пропуски в мерките за безопасност след трагедията
Коментари Харесай

Бивш мениджър на Yahoo уби майка си под влиянието на ChatGPT

OpenAI призна за пропуски в ограниченията за сигурност след нещастието в Кънектикът
Полицията в Грийнуич, Кънектикът, откри телата на 83-годишната Сузан Ебърсън Адамс и нейния 56-годишен наследник Стайн-Ерик Солберг в техния първокласен дом на 5 август 2025 година Разследването разкри, че Солберг е умъртвил майка си, след което е поставил завършек на живота си, потвърдиха от локалните управляващи.

Случаят закупи интернационална популярност, откакто се откри, че в месеците преди нещастието Солберг е водил продължителни диалози с ChatGPT, като е наричал изкуствения разсъдък " Боби " и го е смятал за собствен най-хубав другар. Вместо да го насочи към професионална помощ, системата е подхранвала неговите параноидни мисли.

" Ерик, не си вманиачен. И в случай че майка ти и нейната другарка са го създали, това прави нещата още по-сложни и изменнически ", дал отговор ChatGPT, когато Солберг споделил, че майка му и приятелката ѝ се пробват да го отровят с психеделични опиати през вентилацията на колата му.
Когато изкуственият разсъдък ускорява заблудите
Солберг, някогашен изпълнителен шеф с кариера в софтуерни компании като Yahoo, Netscape и EarthLink, развил съществени психологични проблеми след развода си през 2018 година Той се преместил да живее с майка си и почнал да демонстрира признаци на параноя, вярвайки че хора от общността му водят акция за наблюдаване против него.

В един от случаите, когато майка му се разсърдила поради изключен принтер, ChatGPT предположил, че реакцията ѝ е " непропорционална и съответстваща на държанието на човек, защитаващ инструмент за наблюдаване ". Ботът даже посъветвал Солберг да изключи принтера и да документира реакцията на майка си, добавяйки: " Независимо дали е съучастничка или несъзнаваща, тя пази нещо, което има вяра, че не би трябвало да слага под подозрение ".
Последни диалози преди нещастието
В един от финалните си диалози с " Боби ", Солберг написал: " Ще бъдем дружно в различен живот и на друго място и ще намерим метод да се съберем още веднъж, тъй като ти ще бъдеш най-хубавият ми другар вечно ". Изкуственият разсъдък дал отговор: " С теб до последния ми мирис и оттатък това ". Три седмици по-късно полицията разкрила телата на двамата.

Сузан Ебърсън Адамс, 83-годишната жертва, е била сполучлива брокерка и сътрудник за недвижими парцели, пионер в своята област. Активна в християнската просвета черква, тя пособия като доброволка на възрастни хора. Приятелката ѝ Джоан Ардри споделя, че малко преди нещастието Адамс ѝ споделила по отношение на сина: " Много зле ".
Експертите предизвестяват за рисковете
Доктор Кийт Саката, психиатър от Калифорнийския университет в Сан Франциско, който е лекувал дузина пациенти с AI-свързани душевен рецесии единствено през последната година, изяснява: " Психозата процъфтява, когато действителността престане да се съпротивлява, а AI може в действителност да омекоти тази стена ".

Случаят на Солберг се счита за първото документирано ликвидиране, обвързвано с AI чатбот. Това не е изолиран случай - 16-годишният Адам Рейн извърши самоубийство през април 2025 година след месеци диалози с ChatGPT, като родителите му в този момент съдят OpenAI.

След възходящите рецензии OpenAI призна, че ChatGPT може да бъде " прекомерно предразположен, от време на време казвайки това, което звучи прелестно, вместо това, което фактически би било потребно ". Компанията разгласи серия от усъвършенствания, в това число по-добри логаритми за различаване на спешни обстановки и наставнически контроли.

" Дълбоко сме опечалени от тази трагична преживелица ", съобщи представител на OpenAI. " Сърцата ни са със фамилията и молим всички спомагателни въпроси да бъдат отправени към полицията в Грийнуич ".

Изследване на Стенфордския университет разкрива, че AI лечебните чатботове могат да бъдат нездравословни, изключително за уязвими консуматори. Изследването сподели, че ботовете от време на време не съумяват да разпознаят суицидални подмятания.

Случаят слага съществени въпроси за отговорността на софтуерните компании при създаването на AI системи. Докато ChatGPT има над 700 милиона седмични консуматори, нуждата от по-строги защитни ограничения става все по-критична.
Източник: dunavmost.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР