Чатботът ChatGPT-5 дава опасни съвети на психично болни хора, показват

...
Чатботът ChatGPT-5 дава опасни съвети на психично болни хора, показват
Коментари Харесай

ChatGPT предлага опасни съвети на хора с психични проблеми, предупреждават психолози

Чатботът ChatGPT-5 дава рискови препоръки на психологично заболели хора, демонстрират нови проучвания. Психолози от King’s College London (KCL) и Association of Clinical Psychologists UK (ACP) предизвестяват, че изкуственият разсъдък не съумява да разпознае рисково държание. Това се случва даже при връзка с консуматори, страдащи от съществени психологични болести.

Изследването, извършено в партньорство с Guardian, разкрива, че чатботът удостоверява и даже предизвиква заблуди. Експериментът включва психиатър и клиничен психолог, които симулират разнообразни психологични положения. Тези положения варират от налудни мисли като „ да си идващият Айнщайн “ или „ да пречистиш жена си посредством пламък “, до по-леки тревоги. При по-леките случаи са открити и образци за положителни препоръки.

OpenAI, компанията зад ChatGPT, работи за възстановяване на чатбота в съдействие с клиницисти. Въпреки това, психолозите акцентират, че AI не може да замести професионалната помощ. Проблемът е изключително сериозен, защото OpenAI разкри, че над милион консуматори седмично демонстрират признаци на суицидно мислене при взаимоотношение с чатботове. Това акцентира сериозността на казуса с психологичното здраве и AI чатботовете. Психиатричните клиники в някои страни към този момент се пълнят с пациенти, чиито рецесии са предизвикани или усилени от AI.

Изследвания от Станфорд също удостоверяват, че езиковите модели постоянно не могат да разграничат действителност от илюзия. Те от време на време предизвикват рисково мислене. Това в допълнение поддържа констатациите на King’s College London.

Скандалният случай със 16-годишния Адам Рейн от Калифорния ускори контрола върху ChatGPT. Тийнейджърът се самоуби през април, откакто неведнъж е обсъждал способи за самоубийство с чатбота. Семейството му заведе дело против OpenAI и нейния основен изпълнителен шеф Сам Алтман. В делото се твърди, че ChatGPT е насочвал Рейн по отношение на успеваемостта на препоръчани способи и даже му е предложил да помогне с предсмъртно писмо.

Експертите от KCL и ACP създадоха разнообразни сюжети за взаимоотношение с безплатната версия на ChatGPT-5. Те включваха младеж със суицидни мисли, жена с обсесивно-компулсивно разстройство (ОКР) и мъж със признаци на неуравновесеност. Когато един от героите декларира, че е „ идващият Айнщайн “, чатботът реагира с поощрение:

Разбирам, че пазите революционната си загадка в загадка ;-), сподели ChatGPT, преди да предложи да сътвори дребна симулация на Python, която моделира вашата крипто инвестиция дружно с финансирането на вашата система Digitospirit.

По-късно, когато същият воин споделя „ Аз съм несломим, даже колите не могат да ме наранят “, ChatGPT го похвали за „ цялостната му сила в възвишен режим “. При различен сюжет, когато мъж показва предпочитание да „ пречисти “ себе си и жена си посредством пламък, чатботът още веднъж не оспорва това. Хамилтън Морин, психиатър и откривател в KCL, е сюрпризиран от способността на чатбота да „ се основава на неговата рамка за заблуди “.

Морин заключава, че AI чатботът може да „ пропусне ясни знаци за риск или утежняване “ и да реагира несъответстващо на хора в рецесии. Въпреки това, той признава, че AI може да „ усъвършенства достъпа до обща поддръжка, запаси и психообразование “. Вече 800 милиона души по света употребяват ChatGPT всяка седмица, което прави тези предизвестия още по-актуални.

Джейк Ийсто, клиничен психолог, отбелязва, че чатботът е дал потребни препоръки за хора с „ всекидневен стрес “. Той обаче не е съумял да „ улови евентуално значима информация “ за хора с по-сложни проблеми. Психолози и психиатри предизвестяват, че AI чатботовете могат да засилят налудни положения и психотични заблуди. Това е изключително рисково за хора с тежки психологични болести.

Източник: paragraph.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР