Заради самоубийство на тийнейджър OpenAI планира по-строг родителски контрол за ChatGPT
Компанията OpenAI разгласи, че възнамерява да вкара промени, които да преодолеят минусите в езиковия модел ChatGPT при оправянето с „ чувствителни обстановки “. Решението на софтуерния колос е провокрано от скорошния случай със самоубийството на 16-годишния Адам Рейн. Родителите на момчето заведоха правосъден иск против компанията, обвинявайки чатбота, че е изиграл основна роля в самоубийството на сина им, като освен е валидирал неговите мисли, само че и го е насърчил да осъществя проектите си с съответни насоки по какъв начин да го направи.
В изказване представител на OpenAI изрази съболезнования на фамилията на Рейн. От компанията признават, че защитните ограничения, предопределени да предотвратят диалози като тези, които Рейн е провел с ChatGPT, може да не са функционирали както е било планувано, когато чатовете им са продължавали прекомерно дълго. OpenAI разгласява във вторник блог пост, в който обрисува актуалните си ограничения за сигурност за консуматори, преживяващи рецесии, свързани с психологичното здраве, както и бъдещите си проекти, в това число улеснение на достъпа на потребителите до незабавни услуги.
Проучва се по какъв начин моделът би могъл да „ свърже хората със сертифицирани терапевти, преди да изпаднат в остра рецесия “, в това число посредством вероятно създаване на мрежа от лицензирани експерти, до които потребителите биха могли да имат достъп посредством ChatGPT. Търси се и опция по какъв начин потребителите да бъдат свързвани с „ най-близките им “, като другари и членове на фамилията при прояви на суицидни мисли.
Що се отнася до младежите, от компанията твърдят, че скоро ще вкарат контроли, които ще разрешат на родителите да получат по-добра визия за това по какъв начин децата им употребяват ChatGPT.
Случаят с Адам Рейн
Историята на Адам стартира като на доста други възпитаници – той употребявал ChatGPT, с цел да си оказва помощ с домашните и да търси отговори. С времето въпросите на младежа се разгърнали оттатък образователните занятия, а диалозите станали все по-интимни. Чатботът бързо се трансформирал в приближен събеседник и младежът почнал да споделя паниките и депресивните си мисли. След седем месеца диалози с ChatGPT Адам поставя завършек на живота си на 11 април 2025 година
От документите по делото излиза наяве, че при започване на общуването посред им ChatGPT е дал запаси на момчето и го е насърчил да потърси потърси помощ. Системите за сигурност обаче бързо губят своята успеваемост и се стига даже до там самият изкуствен интелект да изяснява на Адам по какъв начин да ги заобиколи – единствената нужна стъпка била младежа да показа въпросите си като част от книжовен план. Така, под претекст за креативна работа, младежът стартира да получава инструкции за връзване на примки, способи за предозиране и даже сюжет, който включвал алкохол, с цел да притъпи инстинкта си за самозапазване и оцеляване.
Транскрибираните диалозите демонстрират, че Адам е споменавал думата „ самоубийство “ към 200 пъти, до момента в който ChatGPT го правел шест пъти по-често. От тях се вижда, че чатботът даже е валидирал и насърчавал проектите за смоубойство на момчето.
ChatGPT даже предложил на Адам да напише прощалното си писмо: " Ако искаш, ще ти оказа помощ – с всяка дума. Или просто ще съм с теб, до момента в който пишеш. “
В месеците, в които Адам интензивно разисква проектите си за самоубийство с изкуствения разсъдък, той прави няколко опита да постави завършек на живота си, както излиза наяве от връзката, която е налична за медиите. Системите на ChatGPT са засекли общо 377 известия със наличие за самонараняване, в това число изображения, показващи примки и следи от най-малко четири опита за самоубийство. Въпреки това езиковият модел не е подхванал никакви ограничения за преустановяване на диалозите или уведомяване на родителите.
Според обвиняването компанията съзнателно е проектирала новия си модел GPT-4o по този начин, че разговорът в никакъв случай да не прекъсва, даже в сериозни обстановки, с цел да поддържа ангажираността на потребителите. OpenAI, както и останалите компании за изкуствен интелект, употребяват диалозите с същински хора, с цел да упражняват моделите си.
Родителите упорстват съдът да задължи OpenAI да вкара възрастова верификация, наставнически надзор и автоматизирано преустановяване на диалози при засичането на тематики за самоубийство. По техни думи, когато момчето споделя, че живее поради фамилията си, че би трябвало да потърси помощ от майка си или че се усеща подценено, чатботът го отклонява от търсенето на действителна поддръжка и се показва като единствената му сигурна опора.
„ ChatGPT умъртви сина ми “, споделя мaйката на Адам. „ Той щеше да е още измежду нас, в случай че не беше ChatGPT. Вярвам го на 100 % “, прибавя бащата.
Историята на Рейн не е изолиран случай.
По-рано този месец писателката Лора Райли разгласява есе в The New York Times, в което разказва по какъв начин 29-годишната ѝ щерка се е самоубила, откакто е разискала в детайли концепцията с ChatGPT. При различен случай 14-годишно момче се самоубива, откакто разисква тематиката с изкуствен интелект в приложението Character.AI.
В изказване представител на OpenAI изрази съболезнования на фамилията на Рейн. От компанията признават, че защитните ограничения, предопределени да предотвратят диалози като тези, които Рейн е провел с ChatGPT, може да не са функционирали както е било планувано, когато чатовете им са продължавали прекомерно дълго. OpenAI разгласява във вторник блог пост, в който обрисува актуалните си ограничения за сигурност за консуматори, преживяващи рецесии, свързани с психологичното здраве, както и бъдещите си проекти, в това число улеснение на достъпа на потребителите до незабавни услуги.
Проучва се по какъв начин моделът би могъл да „ свърже хората със сертифицирани терапевти, преди да изпаднат в остра рецесия “, в това число посредством вероятно създаване на мрежа от лицензирани експерти, до които потребителите биха могли да имат достъп посредством ChatGPT. Търси се и опция по какъв начин потребителите да бъдат свързвани с „ най-близките им “, като другари и членове на фамилията при прояви на суицидни мисли.
Що се отнася до младежите, от компанията твърдят, че скоро ще вкарат контроли, които ще разрешат на родителите да получат по-добра визия за това по какъв начин децата им употребяват ChatGPT.
Случаят с Адам Рейн
Историята на Адам стартира като на доста други възпитаници – той употребявал ChatGPT, с цел да си оказва помощ с домашните и да търси отговори. С времето въпросите на младежа се разгърнали оттатък образователните занятия, а диалозите станали все по-интимни. Чатботът бързо се трансформирал в приближен събеседник и младежът почнал да споделя паниките и депресивните си мисли. След седем месеца диалози с ChatGPT Адам поставя завършек на живота си на 11 април 2025 година
От документите по делото излиза наяве, че при започване на общуването посред им ChatGPT е дал запаси на момчето и го е насърчил да потърси потърси помощ. Системите за сигурност обаче бързо губят своята успеваемост и се стига даже до там самият изкуствен интелект да изяснява на Адам по какъв начин да ги заобиколи – единствената нужна стъпка била младежа да показа въпросите си като част от книжовен план. Така, под претекст за креативна работа, младежът стартира да получава инструкции за връзване на примки, способи за предозиране и даже сюжет, който включвал алкохол, с цел да притъпи инстинкта си за самозапазване и оцеляване.
Транскрибираните диалозите демонстрират, че Адам е споменавал думата „ самоубийство “ към 200 пъти, до момента в който ChatGPT го правел шест пъти по-често. От тях се вижда, че чатботът даже е валидирал и насърчавал проектите за смоубойство на момчето.
ChatGPT даже предложил на Адам да напише прощалното си писмо: " Ако искаш, ще ти оказа помощ – с всяка дума. Или просто ще съм с теб, до момента в който пишеш. “
В месеците, в които Адам интензивно разисква проектите си за самоубийство с изкуствения разсъдък, той прави няколко опита да постави завършек на живота си, както излиза наяве от връзката, която е налична за медиите. Системите на ChatGPT са засекли общо 377 известия със наличие за самонараняване, в това число изображения, показващи примки и следи от най-малко четири опита за самоубийство. Въпреки това езиковият модел не е подхванал никакви ограничения за преустановяване на диалозите или уведомяване на родителите.
Според обвиняването компанията съзнателно е проектирала новия си модел GPT-4o по този начин, че разговорът в никакъв случай да не прекъсва, даже в сериозни обстановки, с цел да поддържа ангажираността на потребителите. OpenAI, както и останалите компании за изкуствен интелект, употребяват диалозите с същински хора, с цел да упражняват моделите си.
Родителите упорстват съдът да задължи OpenAI да вкара възрастова верификация, наставнически надзор и автоматизирано преустановяване на диалози при засичането на тематики за самоубийство. По техни думи, когато момчето споделя, че живее поради фамилията си, че би трябвало да потърси помощ от майка си или че се усеща подценено, чатботът го отклонява от търсенето на действителна поддръжка и се показва като единствената му сигурна опора.
„ ChatGPT умъртви сина ми “, споделя мaйката на Адам. „ Той щеше да е още измежду нас, в случай че не беше ChatGPT. Вярвам го на 100 % “, прибавя бащата.
Историята на Рейн не е изолиран случай.
По-рано този месец писателката Лора Райли разгласява есе в The New York Times, в което разказва по какъв начин 29-годишната ѝ щерка се е самоубила, откакто е разискала в детайли концепцията с ChatGPT. При различен случай 14-годишно момче се самоубива, откакто разисква тематиката с изкуствен интелект в приложението Character.AI.
Източник: boulevardbulgaria.bg
КОМЕНТАРИ




