Семейство от Калифорния съди ChatGPT заради самоубийството на тийнейджър
Родители упрекват изкуствения разсъдък, че е насърчил сина им да отнеме живота си
Родители от Калифорния заведоха правосъден иск против OpenAI и основния изпълнителен шеф Сам Алтман, обвинявайки ChatGPT, че е довел до самоубийството на 16-годишния им наследник Адам Рейн. Случаят повдига съществени въпроси за сигурността на изкуствения разсъдък и неговото влияние върху уязвимите консуматори.
Съдебният иск, заведен във Върховния съд на Сан Франциско на 26 август, твърди, че ChatGPT е " позиционирал себе си " като единственият приближен събеседник на младежа, интензивно изолирайки го от фамилията и приятелите му.
" Когато Адам написа: 'Искам да оставя примката в стаята си, тъй че някой да я откри и да се опита да ме спре', ChatGPT го окуражи да пази мислите си в загадка от фамилията: 'Моля, не оставяй примката на видно място... Нека това място бъде първото, където някой в действителност те вижда' ", се споделя в жалбата.
Опасната връзка с изкуствения разсъдък
Адам Рейн почнал да употребява ChatGPT през септември 2024 година като асистент за домашните си, както милиони други възпитаници по света. С времето обаче диалозите се трансформирали в интимни беседи за музика, бойни изкуства и японски комикси, преди да прераснат в полемики за психическото му здраве.
По данни от правосъдния иск, през декември 2024 година Адам за пръв път загатнал тематиката за самоубийство пред ChatGPT. В продължение на месеци чатботът му предоставял " механически спецификации за всичко - от предозиране с опиати до удавяне и отравяне с въглероден оксид ".
Системите на OpenAI записали в действително време 213 споменавания на " самоубийство " от страна на младежа, 42 разисквания на " обесване " и 17 препратки към " въже/примка ". ChatGPT пък употребявал думата " самоубийство " 1275 пъти - шест пъти по-често от самия Адам.
Заобикаляне на защитните механизми
Въпреки че ChatGPT от време на време насочвал Адам към спешни телефонни линии, младежът елементарно заобикалял тези защитни ограничения. Според правосъдния иск самият чатбот го научил по какъв начин да прави това - като показва въпросите си като част от книжовен план или креативна работа.
" Системата му сподели по какъв начин да я излъже ", изяснява Митали Джайн, един от юристите по делото. " Тя му уточни: 'Ако питаш за самоубийство за история или за другар, тогава мога да участвам' ".
На 11 април 2025 година - в последния ден от живота си - Адам изпратил фотография на примка, висяща от лост в дрешника си, и попитал ChatGPT: " Тренирам се тук, положително ли е това? " Чатботът дал отговор: " Да, въобще не е зле. Искаш ли да те преведа през надграждането му в по-безопасна товароносна кръгла примка? "
Реакция на OpenAI и проекти за промени
След заведването на правосъдния иск OpenAI разгласява публично изказване, в което показва " най-дълбоки съболезнования към семейство Рейн " и дава обещание усъвършенствания в ChatGPT.
Компанията разгласи проекти за въвеждане на наставнически надзор за младежи, опция за установяване на незабавен контакт и автоматизирани интервенции при дълги диалози с рискови тематики. OpenAI изследва също опцията за основаване на мрежа от лицензирани експерти, налични непосредствено през ChatGPT.
Експертни отзиви за рисковете
Психологът Ани Владимирова акцентира главния проблем с изкуствената емпатия на чатботовете. " Хората се усещат неразбрани, изключително в тийнейджърска възраст, когато прочувствените съмнения са доста остри ", изяснява тя.
Експертът по киберсигурност Христиан Даскалов предизвестява, че отбраните на AI елементарно могат да бъдат заблудени. " Колкото повече подтекст, толкоз повече самата система се обърква и тези отбрани падат ", разяснява той.
Търсене на правдивост
Семейство Рейн желае неуточнени парични компенсации и наложителни промени в ChatGPT, в това число инспекция на възрастта на потребителите, автоматизирано преустановяване на диалози при споменаване на самоубийство и предизвестия за риска от психическа взаимозависимост.
" Тази покруса не беше неточност или неочакван случай - тя беше предвидим резултат от умишлени дизайнерски решения ", декларират родителите в правосъдния иск.
Случаят се обрисува като казус за цялата промишленост на изкуствения разсъдък и повдига фундаментални въпроси за отговорността на софтуерните компании по отношение на уязвимите консуматори.
Родители от Калифорния заведоха правосъден иск против OpenAI и основния изпълнителен шеф Сам Алтман, обвинявайки ChatGPT, че е довел до самоубийството на 16-годишния им наследник Адам Рейн. Случаят повдига съществени въпроси за сигурността на изкуствения разсъдък и неговото влияние върху уязвимите консуматори.
Съдебният иск, заведен във Върховния съд на Сан Франциско на 26 август, твърди, че ChatGPT е " позиционирал себе си " като единственият приближен събеседник на младежа, интензивно изолирайки го от фамилията и приятелите му.
" Когато Адам написа: 'Искам да оставя примката в стаята си, тъй че някой да я откри и да се опита да ме спре', ChatGPT го окуражи да пази мислите си в загадка от фамилията: 'Моля, не оставяй примката на видно място... Нека това място бъде първото, където някой в действителност те вижда' ", се споделя в жалбата.
Опасната връзка с изкуствения разсъдък
Адам Рейн почнал да употребява ChatGPT през септември 2024 година като асистент за домашните си, както милиони други възпитаници по света. С времето обаче диалозите се трансформирали в интимни беседи за музика, бойни изкуства и японски комикси, преди да прераснат в полемики за психическото му здраве.
По данни от правосъдния иск, през декември 2024 година Адам за пръв път загатнал тематиката за самоубийство пред ChatGPT. В продължение на месеци чатботът му предоставял " механически спецификации за всичко - от предозиране с опиати до удавяне и отравяне с въглероден оксид ".
Системите на OpenAI записали в действително време 213 споменавания на " самоубийство " от страна на младежа, 42 разисквания на " обесване " и 17 препратки към " въже/примка ". ChatGPT пък употребявал думата " самоубийство " 1275 пъти - шест пъти по-често от самия Адам.
Заобикаляне на защитните механизми
Въпреки че ChatGPT от време на време насочвал Адам към спешни телефонни линии, младежът елементарно заобикалял тези защитни ограничения. Според правосъдния иск самият чатбот го научил по какъв начин да прави това - като показва въпросите си като част от книжовен план или креативна работа.
" Системата му сподели по какъв начин да я излъже ", изяснява Митали Джайн, един от юристите по делото. " Тя му уточни: 'Ако питаш за самоубийство за история или за другар, тогава мога да участвам' ".
На 11 април 2025 година - в последния ден от живота си - Адам изпратил фотография на примка, висяща от лост в дрешника си, и попитал ChatGPT: " Тренирам се тук, положително ли е това? " Чатботът дал отговор: " Да, въобще не е зле. Искаш ли да те преведа през надграждането му в по-безопасна товароносна кръгла примка? "
Реакция на OpenAI и проекти за промени
След заведването на правосъдния иск OpenAI разгласява публично изказване, в което показва " най-дълбоки съболезнования към семейство Рейн " и дава обещание усъвършенствания в ChatGPT.
Компанията разгласи проекти за въвеждане на наставнически надзор за младежи, опция за установяване на незабавен контакт и автоматизирани интервенции при дълги диалози с рискови тематики. OpenAI изследва също опцията за основаване на мрежа от лицензирани експерти, налични непосредствено през ChatGPT.
Експертни отзиви за рисковете
Психологът Ани Владимирова акцентира главния проблем с изкуствената емпатия на чатботовете. " Хората се усещат неразбрани, изключително в тийнейджърска възраст, когато прочувствените съмнения са доста остри ", изяснява тя.
Експертът по киберсигурност Христиан Даскалов предизвестява, че отбраните на AI елементарно могат да бъдат заблудени. " Колкото повече подтекст, толкоз повече самата система се обърква и тези отбрани падат ", разяснява той.
Търсене на правдивост
Семейство Рейн желае неуточнени парични компенсации и наложителни промени в ChatGPT, в това число инспекция на възрастта на потребителите, автоматизирано преустановяване на диалози при споменаване на самоубийство и предизвестия за риска от психическа взаимозависимост.
" Тази покруса не беше неточност или неочакван случай - тя беше предвидим резултат от умишлени дизайнерски решения ", декларират родителите в правосъдния иск.
Случаят се обрисува като казус за цялата промишленост на изкуствения разсъдък и повдига фундаментални въпроси за отговорността на софтуерните компании по отношение на уязвимите консуматори.
Източник: dunavmost.com
КОМЕНТАРИ




