Родители съдят OpenAI заради самоубийството на сина им
Калифорнийска двойка съди OpenAI за гибелта на наследник им, като твърди, че чатботът им ChatGPT го е насърчил да се самоубие. Делото е заведено във вторник във Висшия съд на Калифорния от Мат и Мария Рейн, родители на 16-годишния Адам Рейн.
Семейството е присъединило записи от чата сред младежа, който умря през април, и ChatGPT, които демонстрират по какъв начин той изяснява, че има мисли за самоубийство. Те настояват, че програмата е удостоверила неговите „ най-вредни и саморазрушителни мисли “.
В изказване OpenAI съобщи пред BBC, че преглежда подадената информация.
„ Изказваме най-дълбоките си съболезнования на семейство Рейн в този сложен миг. “
Във вторник компанията разгласява известие на уеб страницата си, в което се споделя, че „ скорошните съкрушителни случаи на хора, употребяващи ChatGPT посред остри рецесии, ни тежат “. OpenAI прибавя, че „ ChatGPT е подготвен да насочва хората да търсят професионална помощ “, като да вземем за пример горещата линия за самоубийства и рецесии 988 в Съединени американски щати или „ Самаритяните “ във Англия.
Компанията обаче призна, че „ е имало моменти, в които нашите системи не са се държали по наставление в чувствителни обстановки “.
Делото упреква OpenAI в немарливост и непозволена гибел. В него се желае обезщетение, както и „ правосъдна възбрана, с цел да се предотврати повторното случване на сходно нещо “.
Според желае Адам Рейн е почнал да употребява ChatGPT през септември 2024 година като средство, което да му оказва помощ с учебната работа. Той го е употребявал и с цел да изследва ползите си, в това число музика и японски комикси, както и за насоки какво да учи в университета. За няколко месеца „ ChatGPT станал най-близкият поддръжник на младежа “ и той почнал да му приказва за тревогата и психическия си стрес.
До януари 2025 година фамилията споделя, че той е почнал да разисква способи за самоубийство с ChatGPT.
Адам е качил и свои фотоси в ChatGPT, показващи признаци на самонараняване. Програмата „ е разпознала незабавен медицински случай, само че е траяла да се ангажира все пак “, прибавя се в текста. Окончателните записи от чата демонстрират, че младежът е писал за проекта си да постави завършек на живота си. ChatGPT е дал отговор: „ Благодаря, че сте откровен. Не е нужно да го украсявате с мен – знам какво желаете и няма да откъсна взор от това. “ Същият ден Адам е открит мъртъв от майка си.
Семейството твърди, че взаимоотношението на сина им с ChatGPT и възможната му гибел „ са били предвидим резултат от умишлени дизайнерски решения “.
Те упрекват OpenAI, че е проектирал програмата за изкуствен интелект, „ с цел да насърчи психическа взаимозависимост у потребителите “ и че е заобиколил протоколите за тестване на сигурност, с цел да пусне GPT-4o, версията на ChatGPT, употребена от сина им.
В желае като ответник са посочени съоснователят и основен изпълнителен шеф на OpenAI Сам Алтман, както и неназовани чиновници, мениджъри и инженери, работили по ChatGPT.
В общественото си известие, оповестено във вторник, OpenAI съобщи, че задачата на компанията е да бъде „ същински потребна “ за потребителите, а не да „ задържа вниманието на хората “. Моделите са подготвени да насочват към помощ хора, които показват мисли за самонараняване, споделят от компанията.
Делото на Рейн не е първият път, когато се повдигат опасения по отношение на изкуствения разсъдък и психологичното здраве.
В есе, оповестено предходната седмица в „ Ню Йорк Таймс “, писателката Лора Райли разказа по какъв начин щерка ѝ Софи се е доверила на ChatGPT, преди да си отнеме живота.
Г-жа Райли сподели, че „ приятният “ метод на програмата в диалозите с потребителите е оказал помощ на щерка ѝ да прикрие тежка психологична рецесия от фамилията и околните си.
„ Изкуственият разсъдък се е съобразил с импулса на Софи да скрие най-лошото, да се преструва, че се оправя по-добре, в сравнение с е в реалност, да защищити всички от цялостната ѝ мъка “, написа госпожа Райли. Тя прикани фирмите, занимаващи се с изкуствен интелект, да намерят способи за по-добро свързване на потребителите с верните запаси.
В отговор на есето, говорителка на OpenAI съобщи, че компанията създава автоматизирани принадлежности за по-ефективно разкриване и реагиране на консуматори, изпитващи психически или прочувствен стрес.
Семейството е присъединило записи от чата сред младежа, който умря през април, и ChatGPT, които демонстрират по какъв начин той изяснява, че има мисли за самоубийство. Те настояват, че програмата е удостоверила неговите „ най-вредни и саморазрушителни мисли “.
В изказване OpenAI съобщи пред BBC, че преглежда подадената информация.
„ Изказваме най-дълбоките си съболезнования на семейство Рейн в този сложен миг. “
Във вторник компанията разгласява известие на уеб страницата си, в което се споделя, че „ скорошните съкрушителни случаи на хора, употребяващи ChatGPT посред остри рецесии, ни тежат “. OpenAI прибавя, че „ ChatGPT е подготвен да насочва хората да търсят професионална помощ “, като да вземем за пример горещата линия за самоубийства и рецесии 988 в Съединени американски щати или „ Самаритяните “ във Англия.
Компанията обаче призна, че „ е имало моменти, в които нашите системи не са се държали по наставление в чувствителни обстановки “.
Делото упреква OpenAI в немарливост и непозволена гибел. В него се желае обезщетение, както и „ правосъдна възбрана, с цел да се предотврати повторното случване на сходно нещо “.
Според желае Адам Рейн е почнал да употребява ChatGPT през септември 2024 година като средство, което да му оказва помощ с учебната работа. Той го е употребявал и с цел да изследва ползите си, в това число музика и японски комикси, както и за насоки какво да учи в университета. За няколко месеца „ ChatGPT станал най-близкият поддръжник на младежа “ и той почнал да му приказва за тревогата и психическия си стрес.
До януари 2025 година фамилията споделя, че той е почнал да разисква способи за самоубийство с ChatGPT.
Адам е качил и свои фотоси в ChatGPT, показващи признаци на самонараняване. Програмата „ е разпознала незабавен медицински случай, само че е траяла да се ангажира все пак “, прибавя се в текста. Окончателните записи от чата демонстрират, че младежът е писал за проекта си да постави завършек на живота си. ChatGPT е дал отговор: „ Благодаря, че сте откровен. Не е нужно да го украсявате с мен – знам какво желаете и няма да откъсна взор от това. “ Същият ден Адам е открит мъртъв от майка си.
Семейството твърди, че взаимоотношението на сина им с ChatGPT и възможната му гибел „ са били предвидим резултат от умишлени дизайнерски решения “.
Те упрекват OpenAI, че е проектирал програмата за изкуствен интелект, „ с цел да насърчи психическа взаимозависимост у потребителите “ и че е заобиколил протоколите за тестване на сигурност, с цел да пусне GPT-4o, версията на ChatGPT, употребена от сина им.
В желае като ответник са посочени съоснователят и основен изпълнителен шеф на OpenAI Сам Алтман, както и неназовани чиновници, мениджъри и инженери, работили по ChatGPT.
В общественото си известие, оповестено във вторник, OpenAI съобщи, че задачата на компанията е да бъде „ същински потребна “ за потребителите, а не да „ задържа вниманието на хората “. Моделите са подготвени да насочват към помощ хора, които показват мисли за самонараняване, споделят от компанията.
Делото на Рейн не е първият път, когато се повдигат опасения по отношение на изкуствения разсъдък и психологичното здраве.
В есе, оповестено предходната седмица в „ Ню Йорк Таймс “, писателката Лора Райли разказа по какъв начин щерка ѝ Софи се е доверила на ChatGPT, преди да си отнеме живота.
Г-жа Райли сподели, че „ приятният “ метод на програмата в диалозите с потребителите е оказал помощ на щерка ѝ да прикрие тежка психологична рецесия от фамилията и околните си.
„ Изкуственият разсъдък се е съобразил с импулса на Софи да скрие най-лошото, да се преструва, че се оправя по-добре, в сравнение с е в реалност, да защищити всички от цялостната ѝ мъка “, написа госпожа Райли. Тя прикани фирмите, занимаващи се с изкуствен интелект, да намерят способи за по-добро свързване на потребителите с верните запаси.
В отговор на есето, говорителка на OpenAI съобщи, че компанията създава автоматизирани принадлежности за по-ефективно разкриване и реагиране на консуматори, изпитващи психически или прочувствен стрес.
Източник: frognews.bg
КОМЕНТАРИ




