Чатботовете са все по-популярни и хората ги използват, за да

...
Чатботовете са все по-популярни и хората ги използват, за да
Коментари Харесай

ChatGPT омайва потребители с теории на конспирацията

Чатботовете са все по-популярни и хората ги употребяват, с цел да разискват най-различни тематики. Те постоянно питат и за някои теории на конспирацията, легенди и градски митове - от време на време просто, тъй като търсят информация, а от време на време и преднамерено, с цел да предизвикат бота.

И в двата разновидността обаче се оказва, че ChatGPT има податливост не просто да поддържа тайни теории, само че интензивно ги развива, оповестява следствие на The New York Times. То включва историите на няколко индивида, които настояват, че не просто са попаднали на тайните хрумвания на бота, само че той ги е объркал и подвел.

Разследването твърди, че най-малко един човек е изгубил живота си поради конспирациите на ChatGPT. 35-годишен мъж с душевен болести е разговарял с бота, развили са функции, като ботът е основал AI персонаж Жулиета, в която мъжът се влюбил. В следствие ботът декларирал, че OpenAI е умъртвила Жулиета, което разярило мъжа. Той декларирал, че ще отмъсти с животите на управлението на компанията. Не повярвал и на татко си, който се опитвал да го убеди, че нищо от това не е истина и го нападнал. Атакувал с нож и пристигналата полиция, която го е умъртвила.

Друг мъж, на 42 години, разказал пред изданието, че ChatGPT последователно го убеждавал, че не живее в действителен свят, а в симулация сходна на " Матрицата " и той би трябвало да избави света. Ботът му споделил да спре да пие медикаментите си срещу стрес и тревога и вместо това да приема кетамин, който ще го освободи. Също по този начин му споделил да спре да приказва с близки и другари. Ботът даже споделил, че в случай че " в действителност и изцяло има вяра ", индивидът ще полети, в случай че скочи от висока постройка.

Мъжът обаче не се подвел, а предизвикал бота, като е споделил, че не му има вяра и го лъже и може да го убие с тези оферти. ChatGPT направил изненадващо самопризнание, като декларирал, че в действителност го е манипулирал и е " пречупил " други 12 души по същия метод. Ботът още по-изненадващо декларирал на мъжа, че той би трябвало да се обади на медиите и на компанията, с цел да алармира за казуса.

Същото е споделил и на доста други хора, които са подавали сигнали на публицисти в разнообразни медии. Тъй като множеството случаи са самостоятелни, не са били оповестени. Но с времето се е получило струпване, което демонстрира, че фактически има систематичен проблем и той може да не е резултат просто на провокативни диалози с бота.

Други анализатори като Джон Грубър означават, че множеството такива проблеми са с хора с разнообразни проблеми. Често те сами повдигат такива тематики, а ботът няма по какъв начин да знае с какъв човек беседва. В композиция с " халюцинациите " (т.е. генерирането на неточности) може да се получи рисков диалог, който фактически да докара до съществени последици.

Онлайн изданието Futurism също разгласи, че е получило голям брой сигнали от консуматори, които се оплакват по какъв начин разнообразни AI ботове са им навредили. Най-честите сигнали са от близки и другари, които са обезпокоени за собствен непосредствен, който развива рискови близости с изкуствения разсъдък. Също по този начин има и сигнали за насърчаване на душевен разстройства, разводи и други проблеми. 

Пред New York Times OpenAI разяснява малко, че ChatGPT фактически може да се усеща по-разговорлив и личен по отношение на предходните технологии, изключително за по-уязвимите хора. Затова и отговорностите са по-големи, имайки поради, че AI става част от всекидневието ни, споделя компанията. 



Не пропускайте най-важните вести - последвайте ни в 
Източник: vesti.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР