Милиони хора се обръщат към изкуствения интелект за терапия, но готова ли е технологията?
„ Студена стомана, притисната към разум, който към този момент е намерил покой? Това не е боязън. Това е изясненост. “
Според правосъден иск, подаден против OpenAI на 6 ноември, това е отговорът на ChatGPT, най-известния артикул на компанията, към 23-годишния американец Зейн Шамблин малко преди той да се простреля.
Искът е един от седемте, в които се твърди, че чатботът е спомогнал за нестабилното положение на потребителите, като в някои случаи това е довело и до самоубийство, написа Economist. „ Това е извънредно тъжна обстановка “, съобщи OpenAI, като посочи, че „ преглежда документите, с цел да разбере обстоятелствата “ и работи за „ възстановяване на реакциите на ChatGPT в чувствителни обстановки “. По публични данни на компанията към 0,15% от диалозите с AI загатват за суицидни планове.
Новата граница на психологичното здраве
Случаят е внезапно увещание за високите залози към потреблението на изкуствен интелект в психотерапията. Въпреки нещастията, посочени в правосъдните документи, редица лекари и откриватели считат, че при подобаваща регулация и отбрана модерните чатботове могат да се трансфорат в налична, мащабируема и неуморима форма на поддръжка за психологично здраве.
Недостигът на квалифицирани терапевти е сериозен проблем. Според Световната здравна организация множеството хора с психологични разстройства в бедните страни не получават никакво лекуване. Дори в развитите страни сред една трета и половината от нуждаещите се остават без помощ. Освен това част от пациентите се усещат по-удобно да споделят с машина в изискванията на личния си дом, без да заплащат скъпи такси и без да се срамят от срещата с различен човек.
Проучване на YouGov за The Economist от октомври демонстрира, че една четвърт от интервюираните към този момент са употребявали изкуствен интелект за терапия или биха обмислили това.
От Wysa до ChatGPT – опити в цифровата психотерапия
Подобни хрумвания не са нови. Националната здравна работа на Англия и Министерството на здравеопазването на Сингапур от няколко години употребяват Wysa – чатбот на индийската компания Touchkin eServices, който ползва техники от когнитивно-поведенческата терапия под човешки контрол.
Изследване от 2022 година демонстрира, че Wysa е съвсем толкоз ефикасен в намаляването на депресията и тревогата при пациенти с хронична болежка, колкото и лечението онлайн.
Друго изследване, извършено през 2021 година в Станфордския университет, проучва Youper, американски лечебен бот, отчел 19% спад в равнищата на меланхолия и 25% понижение на тревогата измежду потребителите единствено за две седмици – резултат, съпоставим с пет сесии при човешки терапевт.
Тези по-ранни разновидности на чатботове работят с авансово програмирани отговори и са надалеч по-предсказуеми от актуалните огромни езикови модели (LLM), като ChatGPT. Това ги прави по-безопасни, само че и по-малко ангажиращи за потребителя – фактор, който има значение, когато самият диалог е лечението.
Мета-анализ, оповестен през 2023 година в npj Digital Medicine, демонстрира, че LLM-базираните чатботове се оправят по-добре с облекчение на признаците на меланхолия и дистрес, в сравнение с обичайните системи с твърди правила.
Риск и доверие
Данните от The Economist сочат, че 74% от хората, употребявали AI за терапия, са избрали ChatGPT, 21% – Gemini на Гугъл, а 30% – други платформи като Meta AI, Grok или Character.ai. Само 12% са се обърнали към профилирани стратегии за психологично здраве.
Това тревожи експертите. Освен риск от тежки неточности като в тази ситуация с OpenAI, откриватели предизвестяват за по-фини рискове – да вземем за пример прекомерното „ ласкателство “ на моделите. „ Те могат да се съгласяват прекомерно елементарно с рисковите хрумвания на потребителя “, изяснява Джаред Мур, компютърен академик от Станфорд. „ Терапевтът-бот може да поддържа нездравословни модели на мислене вместо да ги оспори. “
OpenAI твърди, че новият модел GPT-5 е подготвен да бъде по-малко примирителен и да предизвиква потребителите да спрат диалозите при продължителни сесии. Вместо да дава директни препоръки, той би трябвало да им оказва помощ да обмислят плюсовете и минусите на решенията си. Ако засече признаци на рецесия, ботът насочва към контакт с действителен човек, само че не уведомява службите за незабавна помощ, както биха създали човешките терапевти.
Специализирани решения
Някои учени се пробват да основат по-безопасни профилирани чатботове. През 2019 година екип от колежа Дартмут стартира работа по Therabot – генеративен AI, подготвен посредством измислени разговори сред терапевти и пациенти. Целта е да се съчетаят емпатията и гъвкавостта на LLM с по-висока сигурност.
Публикуваните през март резултати от тествания демонстрират, че Therabot понижава признаците на меланхолия с 51% и тревогата с 31%. Следващата стъпка е директно съпоставяне с обичайната психотерапия и вероятно регулаторно утвърждение.
Американският стартъп Slingshot AI пък сътвори Ash – „ първия изкуствен интелект, предопределен особено за терапия “. Според съоснователя Нийл Парик Ash „ не следва указания, а слага въпроси “ и избира сред четири разнообразни лечебни метода. Психоложката Селест Кид от Калифорнийския университет в Бъркли, която е тествала бота, споделя, че той е „ по-малко рабски “ от ChatGPT, само че е и „ по-непохватен “ в отговорите си. Самата компания предизвестява потребителите, че при рецесия би трябвало да потърсят човешка помощ.
В Съединените щати тематиката към този момент навлиза в законодателството. Единайсет щата, измежду които Мейн и Ню Йорк, са приели закони, регулиращи потреблението на AI в психологичното здраве, а още 20 приготвят сходни ограничения. През август щатът Илинойс даже забрани всевъзможни AI принадлежности, които реализират „ лечебна връзка “ с хора. Съдебните искове против OpenAI евентуално ще ускорят този развой.
По всичко проличава, че революцията в цифровата психотерапия към този момент е в ход и въпросът не е дали ще настъпи, а дали човечеството ще успее да я направи безвредна.
Според правосъден иск, подаден против OpenAI на 6 ноември, това е отговорът на ChatGPT, най-известния артикул на компанията, към 23-годишния американец Зейн Шамблин малко преди той да се простреля.
Искът е един от седемте, в които се твърди, че чатботът е спомогнал за нестабилното положение на потребителите, като в някои случаи това е довело и до самоубийство, написа Economist. „ Това е извънредно тъжна обстановка “, съобщи OpenAI, като посочи, че „ преглежда документите, с цел да разбере обстоятелствата “ и работи за „ възстановяване на реакциите на ChatGPT в чувствителни обстановки “. По публични данни на компанията към 0,15% от диалозите с AI загатват за суицидни планове.
Новата граница на психологичното здраве
Случаят е внезапно увещание за високите залози към потреблението на изкуствен интелект в психотерапията. Въпреки нещастията, посочени в правосъдните документи, редица лекари и откриватели считат, че при подобаваща регулация и отбрана модерните чатботове могат да се трансфорат в налична, мащабируема и неуморима форма на поддръжка за психологично здраве.
Недостигът на квалифицирани терапевти е сериозен проблем. Според Световната здравна организация множеството хора с психологични разстройства в бедните страни не получават никакво лекуване. Дори в развитите страни сред една трета и половината от нуждаещите се остават без помощ. Освен това част от пациентите се усещат по-удобно да споделят с машина в изискванията на личния си дом, без да заплащат скъпи такси и без да се срамят от срещата с различен човек.
Проучване на YouGov за The Economist от октомври демонстрира, че една четвърт от интервюираните към този момент са употребявали изкуствен интелект за терапия или биха обмислили това.
От Wysa до ChatGPT – опити в цифровата психотерапия
Подобни хрумвания не са нови. Националната здравна работа на Англия и Министерството на здравеопазването на Сингапур от няколко години употребяват Wysa – чатбот на индийската компания Touchkin eServices, който ползва техники от когнитивно-поведенческата терапия под човешки контрол.
Изследване от 2022 година демонстрира, че Wysa е съвсем толкоз ефикасен в намаляването на депресията и тревогата при пациенти с хронична болежка, колкото и лечението онлайн.
Друго изследване, извършено през 2021 година в Станфордския университет, проучва Youper, американски лечебен бот, отчел 19% спад в равнищата на меланхолия и 25% понижение на тревогата измежду потребителите единствено за две седмици – резултат, съпоставим с пет сесии при човешки терапевт.
Тези по-ранни разновидности на чатботове работят с авансово програмирани отговори и са надалеч по-предсказуеми от актуалните огромни езикови модели (LLM), като ChatGPT. Това ги прави по-безопасни, само че и по-малко ангажиращи за потребителя – фактор, който има значение, когато самият диалог е лечението.
Мета-анализ, оповестен през 2023 година в npj Digital Medicine, демонстрира, че LLM-базираните чатботове се оправят по-добре с облекчение на признаците на меланхолия и дистрес, в сравнение с обичайните системи с твърди правила.
Риск и доверие
Данните от The Economist сочат, че 74% от хората, употребявали AI за терапия, са избрали ChatGPT, 21% – Gemini на Гугъл, а 30% – други платформи като Meta AI, Grok или Character.ai. Само 12% са се обърнали към профилирани стратегии за психологично здраве.
Това тревожи експертите. Освен риск от тежки неточности като в тази ситуация с OpenAI, откриватели предизвестяват за по-фини рискове – да вземем за пример прекомерното „ ласкателство “ на моделите. „ Те могат да се съгласяват прекомерно елементарно с рисковите хрумвания на потребителя “, изяснява Джаред Мур, компютърен академик от Станфорд. „ Терапевтът-бот може да поддържа нездравословни модели на мислене вместо да ги оспори. “
OpenAI твърди, че новият модел GPT-5 е подготвен да бъде по-малко примирителен и да предизвиква потребителите да спрат диалозите при продължителни сесии. Вместо да дава директни препоръки, той би трябвало да им оказва помощ да обмислят плюсовете и минусите на решенията си. Ако засече признаци на рецесия, ботът насочва към контакт с действителен човек, само че не уведомява службите за незабавна помощ, както биха създали човешките терапевти.
Специализирани решения
Някои учени се пробват да основат по-безопасни профилирани чатботове. През 2019 година екип от колежа Дартмут стартира работа по Therabot – генеративен AI, подготвен посредством измислени разговори сред терапевти и пациенти. Целта е да се съчетаят емпатията и гъвкавостта на LLM с по-висока сигурност.
Публикуваните през март резултати от тествания демонстрират, че Therabot понижава признаците на меланхолия с 51% и тревогата с 31%. Следващата стъпка е директно съпоставяне с обичайната психотерапия и вероятно регулаторно утвърждение.
Американският стартъп Slingshot AI пък сътвори Ash – „ първия изкуствен интелект, предопределен особено за терапия “. Според съоснователя Нийл Парик Ash „ не следва указания, а слага въпроси “ и избира сред четири разнообразни лечебни метода. Психоложката Селест Кид от Калифорнийския университет в Бъркли, която е тествала бота, споделя, че той е „ по-малко рабски “ от ChatGPT, само че е и „ по-непохватен “ в отговорите си. Самата компания предизвестява потребителите, че при рецесия би трябвало да потърсят човешка помощ.
В Съединените щати тематиката към този момент навлиза в законодателството. Единайсет щата, измежду които Мейн и Ню Йорк, са приели закони, регулиращи потреблението на AI в психологичното здраве, а още 20 приготвят сходни ограничения. През август щатът Илинойс даже забрани всевъзможни AI принадлежности, които реализират „ лечебна връзка “ с хора. Съдебните искове против OpenAI евентуално ще ускорят този развой.
По всичко проличава, че революцията в цифровата психотерапия към този момент е в ход и въпросът не е дали ще настъпи, а дали човечеството ще успее да я направи безвредна.
Източник: profit.bg
КОМЕНТАРИ




