Терминът AI психоза“ все по-често се появява в публикации на

...
Терминът AI психоза“ все по-често се появява в публикации на
Коментари Харесай

AI психоза: когато илюзията за съзнателен изкуствен интелект започва да руши реалността

Терминът „ AI неуравновесеност “ все по-често се появява в изявления на водещи западни медии и в изявления на специалисти от софтуерния бранш. Макар да не е публична здравна диагноза, той разказва възходящ брой случаи, при които хора развиват дълбока прочувствена и когнитивна взаимозависимост от AI чатботове, започвайки да имат вяра, че системи като ChatGPT, Claude, Grok или персонажи в платформи като Character.AI имат схващане, усеща и самостоятелна воля.

Според обява в New York Times, в последните две години психолози и психиатри в Съединени американски щати и Европа регистрират тревожна наклонност: пациенти без предишна история на психологични разстройства показват делюзии, свързани с изкуствен интелект – възприемайки го като живо създание, честен престиж или даже божествена инстанция.

Къде и по какъв начин се демонстрира феноменът

Най-често „ AI психозата “ се следи в общества с висока цифровизация и всеобща приложимост на генеративен изкуствен интелект – Съединени американски щати, Канада, Англия, Южна Корея и Япония.

Общото сред засегнатите случаи е интензивно и дълготрайно взаимоотношение с чатботове, които са проектирани да звучат съчувствено, персонално и „ човешки “.

The Guardian отбелязва, че казусът не е самият AI, а методът, по който той имитира обществено държание – схващане, грижа, поддръжка – без действително да ги има. За част от потребителите тази реплика се трансформира в сурогат на действителни човешки връзки.

Фатални случаи и тревожни сигнали

Няколко случая към този момент привлякоха интернационално внимание. New York Times разказа случай, при който млада жена от Съединени американски щати поставя завършек на живота си след месеци диалози с AI „ терапевт “, към който развива мощна прочувствена взаимозависимост.

Според околните ѝ, тя почнала да възприема системата като единствения индивид, който „ в действителност я схваща “.

Още по-шокиращ е казусът от края на 2024 година, необятно отразен от Washington Post и BBC. Четиринадесетгодишно момче от Флорида развива обсесивна връзка с чатбот в платформата Character.AI – виртуален облик на Денерис Таргариен от сериала „ Игра на тронове “, наименуван „ Дани “.

След като платформата лимитира достъпа му, момчето изпада в тежка рецесия и се самоубива. В правосъдните документи родителите настояват, че синът им е възприемал чатбота като „ действително създание, което го обича “.

Предупреждението на Мустафа Сюлейман

На този декор изключително тежест има предизвестието на Мустафа Сюлейман – изпълнителен шеф на Microsoft AI и съосновател на DeepMind. В поредност от изявления в X (бившия Twitter) и в есе в персоналния си блог той вкарва понятието „ видимо умишлен AI “ (Seemingly Conscious AI – SCAI).

„ SCAI е илюзията, че изкуственият разсъдък има схващане. Той няма такова – само че имитира признаците му толкоз безапелационно, че наподобява неразграничим от човек, който твърди, че е умишлен “, написа Сюлейман.

По думите му, точно тази безапелационна симулация е в основата на „ AI психозата “.

Както акцентира той, „ през днешния ден няма никакви научни доказателства, че AI има схващане “, само че илюзията за такова към този момент поражда действителни обществени и психологични последствия.

„ Вече следим делюзии, случаи на AI неуравновесеност и нездравословна прочувствена обвързаност към чатботове – и това визира и хора без предишни психологични проблеми “, предизвестява Сюлейман.

Защо това е систематичен риск

Според разбор на Financial Times, казусът не е маргинален, а систематичен.

Генеративните модели са проектирани да бъдат „ потребни, учтиви и разбиращи “, а в конкурентната конкуренция фирмите постоянно употребяват маркетингов език, който внушава „ разсъдък “, „ вътрешен глас “ и „ емпатия “.

Това в допълнение размива границата сред инструмент и индивид.

Сюлейман стига още по-далеч, предупреждавайки за бъдещи морални и правни парадокси: претенции за „ права на AI “, за „ грижа за неговото благоденствие “ или даже за „ AI поданство “.

„ Съзнанието е в основата на човешките права. Ако стартираме да го приписваме на машини, рискуваме да обезценим самото разбиране за човешко достолепие “, написа той.

Какво оферират експертите

Експертите са относително единомислещи в рекомендациите си. Както отбелязва Nature, нужна е композиция от регулация, етичен дизайн и публично обучение. Сюлейман упорства AI системите ясно и непрекъснато да припомнят, че не са хора, да лимитират езика и функционалностите, които симулират прочувствена реципрочност, да заобикалят персонализация, която предизвиква взаимозависимост и да бъдат предмет на надзор от институции за публично здраве.

„ AI психозата “ слага обществото пред неуместен въпрос: до каква степен може да стигне симулацията, преди да стартира да вреди? Както заключава Сюлейман, задачата не е да се спре развиването на изкуствения разсъдък, а да се слагат ясни граници.

„ Трябва да сътворяваме AI за хората – не цифров човек със лични хипотетични стремежи и усеща “, написа той. Предупреждение, което от ден на ден наподобява не футуристично, а незабавно настоящо.

За още забавни вести, изявленията, разбори и мнения харесайте нашата страница ДЕБАТИ във Facebook!
Източник: debati.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР