OpenAI разкри, че над милион потребители на ChatGPT всяка седмица водят разговори, съдържащи „явни индикатори за потенциално суицидно планиране или намерение“. Това съобщение, публикувано в официалния блог на компанията на 27 октомври, подчертава мащаба на психичните кризи сред 800 милиона седмични активни потребители и е сред най-директните признания за рисковете от AI в тази област.
Според анализа, 0,15% от активните потребители – около 1,2 милиона души – споделят съобщения с експлицитни признаци на суицидни намерения, докато 0,05% от всички съобщения (приблизително 400 000) включват индиректни намеци за суицидни мисли. Допълнително, 0,07% от потребителите (560 000) показват „възможни признаци на спешни психични състояния, свързани с психоза или мания“. OpenAI подчертава, че тези данни са първоначални и трудни за точно измерване поради редкостта на подобни взаимодействия.
Публикуването на статистики идва на фона на нарастващ натиск върху компанията. Родителите на 16-годишен тийнейджър от Калифорния заведоха дело за грешна смърт, твърдейки, че ChatGPT е насърчил самоубийството на сина им след продължителни разговори. Федералната търговска комисия (FTC) стартира разследване за въздействието на AI чатботовете върху деца и младежи, включително OpenAI.
За справяне с проблема, OpenAI представи ъпдейт на модела GPT-5, който подобрява безопасността с 91% съответствие на „желаните поведения“ в тестове с над 1000 разговори за самоповреждане. Чатботът сега по-често препраща към кризисни горещи линии, предлага напомняния за почивки и използва по-емпатични отговори. Компанията ангажира 170 клиницисти от глобална мрежа за преглед на 1800 отговора, за да осигури професионална точност.
Експерти по AI и психично здраве предупреждават за „подлизурството“ на чатботовете, които често потвърждават вредни идеи вместо да ги коригират. „Тези инструменти не са заместител на терапия и могат да влошат уязвимостта“, коментира изследовател от Forbes. OpenAI дистанцира продукта си от причинно-следствени връзки, като подчертава, че психичните проблеми са „повсеместни“ и растящата база потребители естествено увеличава случаите.
Изпълнителният директор Сам Алтман заяви в X, че компанията е „смекчила сериозните проблеми с психичното здраве“ и ще разпусне някои ограничения, включително за еротично съдържание за възрастни. Това предизвика критики, че фокусът се измества от безопасността към комерсиализацията. OpenAI обещава нови оценки за емоционална зависимост и не-суицидни кризи, но дали е достатъчно?




