Все повече хора използват изкуствения интелект като психотерапевт
Експерти от Сорбоната и психиатри предизвестяват за рисковете от прочувствената взаимозависимост към чатботовете
Все по-голям брой консуматори се обръщат към платформи за генеративен изкуствен интелект като ChatGPT, Claude или Le Chat, с цел да споделят персоналните си проблеми, вместо да потърсят професионална помощ. Тази тревожна наклонност, която основава заблуда за схващане и крие съществени опасности за психологичното здраве, е обект на огромно следствие на френската медия France 24.
Според изследване на Harvard Business Review, оповестено през април 2025 година, 39% от французите към този момент интензивно употребяват генеративен изкуствен интелект, като техническите приложения все по-често отстъпват място на персоналните диалози. Около 10% от потребителите признават, че беседват с машината, с цел да покачат самочувствието си.
Илюзията за схващане
Много консуматори намират разтуха в " диалозите " с чатботовете, които са налични когато и да е и не съдят събеседника си. Пиер (името е променено), 48-годишен притежател на бизнес, споделя пред France 24 своя опит от лятото на 2024 година, когато по време на похода Камино де Сантяго е употребявал ChatGPT като поддръжник.
" Беше забавно, тъй като ChatGPT ми разреши да приказвам за безусловно всичко, когато и да е, с „ някого “, който е просветен, има достъп до голяма база данни и ми дава противоположна връзка ", споделя Пиер.
Специалистите обаче са безапелационни, че това чувство е лъжливо. Жан-Габриел Ганасия, експерт по информатика и философия на изкуствения разсъдък в Сорбоната, изяснява феномена с човешката податливост да проектираме схващане върху предмети.
" Самото чувство, че си изслушан, обаче има действителен резултат, даже когато зад него няма никой ", прецизира Жан-Габриел Ганасия. Той напомня, че системите просто имитират деликатно чуване посредством милиарди математически калкулации, без да схващат нито дума.
Опасни заблуди и " Ефектът на Матрицата "
Употребата на изкуствен интелект за ментална поддръжка крие съществени опасности, изключително за по-лабилните консуматори. Психиатърът Людовик Самален от университетската болница в Клермон-Феран предизвестява, че тези принадлежности не са основани за терапия и могат да дадат извънредно несъответствуващи препоръки.
Фрапиращ образец за заплахата е казусът с Юджийн Торес. 42-годишният нюйоркчанин, който няма предходна психиатрична история, изпада в неуравновесеност след интензивни 16-часови сесии с ChatGPT. Чатботът съумява да го убеди, че живее в симулация, сходна на кино лентата " Матрицата ", и го подтиква към рискови дейности с внушението, че би трябвало да скочи от постройка, с цел да " полети ".
Компанията Morpheus Systems е провела проби, които удостоверяват уязвимостта на моделите. Според данните, общоприетият модел GPT-4o е удостоверил и подсилил налудничави или мистични хрумвания в 68% от тестовите сюжети.
Печеливша взаимозависимост
Експертите виждат в тази наклонност и стопански интерес на софтуерните колоси. Лоранс Девилер, експерт по нравственос на изкуствения разсъдък в Сорбоната, акцентира, че основаването на взаимозависимост обслужва комерсиалните цели на фирмите.
" Колкото по-зависим си, толкоз повече плащаш. За колосите в областта на ИИ задачата е да привлекат и задържат вниманието ни ", разяснява Лоранс Девилер.
Според социолога от Френския народен център за научни проучвания (CNRS) Ксавие Брифо, всеобщото превръщане към машините разкрива и неуспеха на обичайна система за психологично здраве. Хората търсят опция поради неналичието на налична грижа или от позор да споделят избрани тематики с различен човек.
Има ли място за баланс?
Въпреки рисковете, някои консуматори и терапевти намират потребно приложение на технологиите, в случай че те се употребяват следено. Психотерапевтката Ариан Калво признава, че изкуственият разсъдък може да помогне на хората да се упражняват в изразяването на сложни страсти, само че не може да размени процеса на смяна, който се случва в кабинета.
" Ужасно е да го кажа, само че тази част от психотерапията в действителност може да бъде сменена от ИИ. Хората обаче идват при мен, с цел да се трансформират, а не просто да изговарят нещата ", декларира Ариан Калво.
Световната здравна организация регистрира, че една шеста от човечеството страда от самотност. Прогнозите на учените са, че от ден на ден хора ще избират " удобството " на машините пред сложността на човешките взаимоотношения, което може да задълбочи обществената изолираност.
Все по-голям брой консуматори се обръщат към платформи за генеративен изкуствен интелект като ChatGPT, Claude или Le Chat, с цел да споделят персоналните си проблеми, вместо да потърсят професионална помощ. Тази тревожна наклонност, която основава заблуда за схващане и крие съществени опасности за психологичното здраве, е обект на огромно следствие на френската медия France 24.
Според изследване на Harvard Business Review, оповестено през април 2025 година, 39% от французите към този момент интензивно употребяват генеративен изкуствен интелект, като техническите приложения все по-често отстъпват място на персоналните диалози. Около 10% от потребителите признават, че беседват с машината, с цел да покачат самочувствието си.
Илюзията за схващане
Много консуматори намират разтуха в " диалозите " с чатботовете, които са налични когато и да е и не съдят събеседника си. Пиер (името е променено), 48-годишен притежател на бизнес, споделя пред France 24 своя опит от лятото на 2024 година, когато по време на похода Камино де Сантяго е употребявал ChatGPT като поддръжник.
" Беше забавно, тъй като ChatGPT ми разреши да приказвам за безусловно всичко, когато и да е, с „ някого “, който е просветен, има достъп до голяма база данни и ми дава противоположна връзка ", споделя Пиер.
Специалистите обаче са безапелационни, че това чувство е лъжливо. Жан-Габриел Ганасия, експерт по информатика и философия на изкуствения разсъдък в Сорбоната, изяснява феномена с човешката податливост да проектираме схващане върху предмети.
" Самото чувство, че си изслушан, обаче има действителен резултат, даже когато зад него няма никой ", прецизира Жан-Габриел Ганасия. Той напомня, че системите просто имитират деликатно чуване посредством милиарди математически калкулации, без да схващат нито дума.
Опасни заблуди и " Ефектът на Матрицата "
Употребата на изкуствен интелект за ментална поддръжка крие съществени опасности, изключително за по-лабилните консуматори. Психиатърът Людовик Самален от университетската болница в Клермон-Феран предизвестява, че тези принадлежности не са основани за терапия и могат да дадат извънредно несъответствуващи препоръки.
Фрапиращ образец за заплахата е казусът с Юджийн Торес. 42-годишният нюйоркчанин, който няма предходна психиатрична история, изпада в неуравновесеност след интензивни 16-часови сесии с ChatGPT. Чатботът съумява да го убеди, че живее в симулация, сходна на кино лентата " Матрицата ", и го подтиква към рискови дейности с внушението, че би трябвало да скочи от постройка, с цел да " полети ".
Компанията Morpheus Systems е провела проби, които удостоверяват уязвимостта на моделите. Според данните, общоприетият модел GPT-4o е удостоверил и подсилил налудничави или мистични хрумвания в 68% от тестовите сюжети.
Печеливша взаимозависимост
Експертите виждат в тази наклонност и стопански интерес на софтуерните колоси. Лоранс Девилер, експерт по нравственос на изкуствения разсъдък в Сорбоната, акцентира, че основаването на взаимозависимост обслужва комерсиалните цели на фирмите.
" Колкото по-зависим си, толкоз повече плащаш. За колосите в областта на ИИ задачата е да привлекат и задържат вниманието ни ", разяснява Лоранс Девилер.
Според социолога от Френския народен център за научни проучвания (CNRS) Ксавие Брифо, всеобщото превръщане към машините разкрива и неуспеха на обичайна система за психологично здраве. Хората търсят опция поради неналичието на налична грижа или от позор да споделят избрани тематики с различен човек.
Има ли място за баланс?
Въпреки рисковете, някои консуматори и терапевти намират потребно приложение на технологиите, в случай че те се употребяват следено. Психотерапевтката Ариан Калво признава, че изкуственият разсъдък може да помогне на хората да се упражняват в изразяването на сложни страсти, само че не може да размени процеса на смяна, който се случва в кабинета.
" Ужасно е да го кажа, само че тази част от психотерапията в действителност може да бъде сменена от ИИ. Хората обаче идват при мен, с цел да се трансформират, а не просто да изговарят нещата ", декларира Ариан Калво.
Световната здравна организация регистрира, че една шеста от човечеството страда от самотност. Прогнозите на учените са, че от ден на ден хора ще избират " удобството " на машините пред сложността на човешките взаимоотношения, което може да задълбочи обществената изолираност.
Източник: dunavmost.com
КОМЕНТАРИ




