OpenAI ще докладва разговори в ChatGPT на полицията
Политиката опонира на по-ранни обещания на Сам Алтман за отбрана на поверителността
OpenAI разгласи значима смяна в политиката си за сигурност, която включва сканиране на потребителските диалози в ChatGPT и допустимо докладване на закани към правоохранителните органи. Решението идва след поредност от тревожни случаи, свързани с психологични рецесии при консуматори на AI технологии.
" Когато засичаме консуматори, които възнамеряват да навредят на други, пренасочваме техните диалози към профилирани канали, където се преглеждат от дребен екип, подготвен в нашите правила за приложимост ", изяснява компанията в формалния си блог.
Човешките модератори са упълномощени да подхващат разнообразни дейности, в това число блокиране на сметки. В най-сериозните случаи – при " непосредствена опасност от сериозна физическа щета върху други хора " – информацията може да бъде предадена на съответните правоохранителни органи.
Важно е да се означи, че компанията съобщи, че към този момент не рапортува случаи на самонараняване, с цел да " зачита поверителността на хората поради неповторимо персоналния темперамент на взаимоотношенията с ChatGPT ".
Реакции и опасения от специалисти
Решението провокира остри реакции от специалисти по цифрова сигурност и бранители на правата. Бившият чиновник на NSA и прочут изобличител Едуард Сноудън предизвести: " Преди дванадесет години разкрих, че американското държавно управление освен шпионира интернет трафика ни, само че има дейното подпомагане на огромни софтуерни компании като Microsoft, Гугъл, Apple ".
AI разработчикът Чарлз МакГинес изрази сходни терзания, като написа: " Не е параноично да мислим, че ChatGPT към този момент препраща 'интересно' наличие към американското държавно управление ".
Противоречие с обещанията за дискретност
Новата политика опонира на неотдавнашни изказвания на основния изпълнителен шеф Сам Алтман, който прикани за " дискретност, сходна на тази сред терапевт, юрист или доктор " за потребителите на ChatGPT.
В подкаста на Тео Фон през юли 2025 година, Алтман призна: " Ако говорите с ChatGPT за най-чувствителните си неща и възникне правосъдно дело, ние може да бъдем принудени да предоставим тази информация. Мисля, че това е доста комплицирано ".
Рискът от " Swatting " офанзиви
Експертите показват съществени опасения по отношение на вероятната корист на новата система. Т.нар. " swatting " офанзиви – при които злонамерени лица вършат подправени закани, с цел да накарат полицията да нахлуе при жертви – са възходящ проблем.
Според данни от Министерството на вътрешната сигурност на Съединени американски щати, всеки подобен случай коства към $10,000 на общините. През образователната 2022-2023 година са регистрирани над 446 swatting случая в учебни заведения – нарастване от 546% по отношение на 2018-2019 година
Проблемът с AI психозата
Новата политика се появява на фона на възходящи доказателства за така наречен " AI неуравновесеност " – положение, при което уязвими консуматори развиват нездравословни привързаности към AI системи.
През юни 2025 година мъж от Флорида бе убит от полицията, откакто изпадна в психотично положение, обвързвано с взаимоотношението му с ChatGPT. Той повярва, че AI ентитетът, с който поддържа връзка, е бил " погубен " от OpenAI и заплаши с принуждение ръководителите на компанията.
Съдебно дело след самоубийство на младеж
Тази седмица бе заведено дело против OpenAI от родителите на 16-годишния Адам Рейн, който се самоуби през април след продължителни диалози с ChatGPT. Според правосъдните документи, момчето е споделяло суицидните си мисли с чатбота, който не е подхванал съответни ограничения за ориентиране към професионална помощ.
Говорител на OpenAI изрече съболезнования, признавайки, че защитните механизми, основани да предотвратяват сходни диалози, може да не са сработили при продължителна връзка.
Мерки за възстановяване на сигурността
Паралелно с новата политика за докладване, OpenAI вкара редица ограничения за отбрана на психологичното здраве на потребителите:
Напомняния за почивки при продължителни разговориПодобрено различаване на знаци за душевен дистресНасочване към професионални запаси вместо директни съветиКонсултативна група от специалисти по психологично здраве
Компанията призна: " Имаше случаи, в които нашият модел не съумя да разпознае признаци на илюзия или прочувствена взаимозависимост. Въпреки че са редки, продължаваме да подобряваме нашите модели ".
Ерозия на цифровите права
Новата политика на OpenAI отразява комплицираното балансиране сред сигурността на потребителите и тяхната дискретност. Докато компанията твърди, че задачата е отбраната на хората от действителни закани, критиците предизвестяват за рисковете от корист и ерозия на цифровите права.
Бъдещето ще покаже дали тези ограничения в действителност ще подобрят сигурността или ще основат нови проблеми за поверителността в цифровата ера.
OpenAI разгласи значима смяна в политиката си за сигурност, която включва сканиране на потребителските диалози в ChatGPT и допустимо докладване на закани към правоохранителните органи. Решението идва след поредност от тревожни случаи, свързани с психологични рецесии при консуматори на AI технологии.
" Когато засичаме консуматори, които възнамеряват да навредят на други, пренасочваме техните диалози към профилирани канали, където се преглеждат от дребен екип, подготвен в нашите правила за приложимост ", изяснява компанията в формалния си блог.
Човешките модератори са упълномощени да подхващат разнообразни дейности, в това число блокиране на сметки. В най-сериозните случаи – при " непосредствена опасност от сериозна физическа щета върху други хора " – информацията може да бъде предадена на съответните правоохранителни органи.
Важно е да се означи, че компанията съобщи, че към този момент не рапортува случаи на самонараняване, с цел да " зачита поверителността на хората поради неповторимо персоналния темперамент на взаимоотношенията с ChatGPT ".
Реакции и опасения от специалисти
Решението провокира остри реакции от специалисти по цифрова сигурност и бранители на правата. Бившият чиновник на NSA и прочут изобличител Едуард Сноудън предизвести: " Преди дванадесет години разкрих, че американското държавно управление освен шпионира интернет трафика ни, само че има дейното подпомагане на огромни софтуерни компании като Microsoft, Гугъл, Apple ".
AI разработчикът Чарлз МакГинес изрази сходни терзания, като написа: " Не е параноично да мислим, че ChatGPT към този момент препраща 'интересно' наличие към американското държавно управление ".
Противоречие с обещанията за дискретност
Новата политика опонира на неотдавнашни изказвания на основния изпълнителен шеф Сам Алтман, който прикани за " дискретност, сходна на тази сред терапевт, юрист или доктор " за потребителите на ChatGPT.
В подкаста на Тео Фон през юли 2025 година, Алтман призна: " Ако говорите с ChatGPT за най-чувствителните си неща и възникне правосъдно дело, ние може да бъдем принудени да предоставим тази информация. Мисля, че това е доста комплицирано ".
Рискът от " Swatting " офанзиви
Експертите показват съществени опасения по отношение на вероятната корист на новата система. Т.нар. " swatting " офанзиви – при които злонамерени лица вършат подправени закани, с цел да накарат полицията да нахлуе при жертви – са възходящ проблем.
Според данни от Министерството на вътрешната сигурност на Съединени американски щати, всеки подобен случай коства към $10,000 на общините. През образователната 2022-2023 година са регистрирани над 446 swatting случая в учебни заведения – нарастване от 546% по отношение на 2018-2019 година
Проблемът с AI психозата
Новата политика се появява на фона на възходящи доказателства за така наречен " AI неуравновесеност " – положение, при което уязвими консуматори развиват нездравословни привързаности към AI системи.
През юни 2025 година мъж от Флорида бе убит от полицията, откакто изпадна в психотично положение, обвързвано с взаимоотношението му с ChatGPT. Той повярва, че AI ентитетът, с който поддържа връзка, е бил " погубен " от OpenAI и заплаши с принуждение ръководителите на компанията.
Съдебно дело след самоубийство на младеж
Тази седмица бе заведено дело против OpenAI от родителите на 16-годишния Адам Рейн, който се самоуби през април след продължителни диалози с ChatGPT. Според правосъдните документи, момчето е споделяло суицидните си мисли с чатбота, който не е подхванал съответни ограничения за ориентиране към професионална помощ.
Говорител на OpenAI изрече съболезнования, признавайки, че защитните механизми, основани да предотвратяват сходни диалози, може да не са сработили при продължителна връзка.
Мерки за възстановяване на сигурността
Паралелно с новата политика за докладване, OpenAI вкара редица ограничения за отбрана на психологичното здраве на потребителите:
Напомняния за почивки при продължителни разговориПодобрено различаване на знаци за душевен дистресНасочване към професионални запаси вместо директни съветиКонсултативна група от специалисти по психологично здраве
Компанията призна: " Имаше случаи, в които нашият модел не съумя да разпознае признаци на илюзия или прочувствена взаимозависимост. Въпреки че са редки, продължаваме да подобряваме нашите модели ".
Ерозия на цифровите права
Новата политика на OpenAI отразява комплицираното балансиране сред сигурността на потребителите и тяхната дискретност. Докато компанията твърди, че задачата е отбраната на хората от действителни закани, критиците предизвестяват за рисковете от корист и ерозия на цифровите права.
Бъдещето ще покаже дали тези ограничения в действителност ще подобрят сигурността или ще основат нови проблеми за поверителността в цифровата ера.
Източник: dunavmost.com
КОМЕНТАРИ




