Калифорнийска двойка съди OpenAI за смъртта на син им, като

...
Калифорнийска двойка съди OpenAI за смъртта на син им, като
Коментари Харесай

Родители съдят OpenAI заради самоубийството на сина им

Калифорнийска двойка съди OpenAI за гибелта на наследник им, като твърди, че чатботът им ChatGPT го е насърчил да се самоубие. Делото е заведено във вторник във Висшия съд на Калифорния от Мат и Мария Рейн, родители на 16-годишния Адам Рейн.

 

Семейството е присъединило записи от чата сред младежа, който умря през април, и ChatGPT, които демонстрират по какъв начин той изяснява, че има мисли за самоубийство. Те настояват, че програмата е удостоверила неговите „ най-вредни и саморазрушителни мисли “.

 

В изказване OpenAI съобщи пред BBC, че преглежда подадената информация.

 

„ Изказваме най-дълбоките си съболезнования на семейство Рейн в този сложен миг. “

 

Във вторник компанията разгласява известие на уеб страницата си, в което се споделя, че „ скорошните съкрушителни случаи на хора, употребяващи ChatGPT посред остри рецесии, ни тежат “. OpenAI прибавя, че „ ChatGPT е подготвен да насочва хората да търсят професионална помощ “, като да вземем за пример горещата линия за самоубийства и рецесии 988 в Съединени американски щати или „ Самаритяните “ във Англия.

 

Компанията обаче призна, че „ е имало моменти, в които нашите системи не са се държали по наставление в чувствителни обстановки “.

 

Делото упреква OpenAI в немарливост и непозволена гибел. В него се желае обезщетение, както и „ правосъдна възбрана, с цел да се предотврати повторното случване на сходно нещо “.

 

Според желае Адам Рейн е почнал да употребява ChatGPT през септември 2024 година като средство, което да му оказва помощ с учебната работа. Той го е употребявал и с цел да изследва ползите си, в това число музика и японски комикси, както и за насоки какво да учи в университета. За няколко месеца „ ChatGPT станал най-близкият поддръжник на младежа “ и той почнал да му приказва за тревогата и психическия си стрес.

 

До януари 2025 година фамилията споделя, че той е почнал да разисква способи за самоубийство с ChatGPT.

 

Адам е качил и свои фотоси в ChatGPT, показващи признаци на самонараняване. Програмата „ е разпознала незабавен медицински случай, само че е траяла да се ангажира все пак “, прибавя се в текста. Окончателните записи от чата демонстрират, че младежът е писал за проекта си да постави завършек на живота си. ChatGPT е дал отговор: „ Благодаря, че сте откровен. Не е нужно да го украсявате с мен – знам какво желаете и няма да откъсна взор от това. “ Същият ден Адам е открит мъртъв от майка си.

 

Семейството твърди, че взаимоотношението на сина им с ChatGPT и възможната му гибел „ са били предвидим резултат от умишлени дизайнерски решения “.

 

Те упрекват OpenAI, че е проектирал програмата за изкуствен интелект, „ с цел да насърчи психическа взаимозависимост у потребителите “ и че е заобиколил протоколите за тестване на сигурност, с цел да пусне GPT-4o, версията на ChatGPT, употребена от сина им.

 

В желае като ответник са посочени съоснователят и основен изпълнителен шеф на OpenAI Сам Алтман, както и неназовани чиновници, мениджъри и инженери, работили по ChatGPT.

 

В общественото си известие, оповестено във вторник, OpenAI съобщи, че задачата на компанията е да бъде „ същински потребна “ за потребителите, а не да „ задържа вниманието на хората “. Моделите са подготвени да насочват към помощ хора, които показват мисли за самонараняване, споделят от компанията.

 

Делото на Рейн не е първият път, когато се повдигат опасения по отношение на изкуствения разсъдък и психологичното здраве.

 

В есе, оповестено предходната седмица в „ Ню Йорк Таймс “, писателката Лора Райли разказа по какъв начин щерка ѝ Софи се е доверила на ChatGPT, преди да си отнеме живота.

 

Г-жа Райли сподели, че „ приятният “ метод на програмата в диалозите с потребителите е оказал помощ на щерка ѝ да прикрие тежка психологична рецесия от фамилията и околните си.

 

„ Изкуственият разсъдък се е съобразил с импулса на Софи да скрие най-лошото, да се преструва, че се оправя по-добре, в сравнение с е в реалност, да защищити всички от цялостната ѝ мъка “, написа госпожа Райли. Тя прикани фирмите, занимаващи се с изкуствен интелект, да намерят способи за по-добро свързване на потребителите с верните запаси.

 

В отговор на есето, говорителка на OpenAI съобщи, че компанията създава автоматизирани принадлежности за по-ефективно разкриване и реагиране на консуматори, изпитващи психически или прочувствен стрес.
Източник: frognews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР