Американка се самоуби след разговор с ChatGPT — „ИИ терапевтът“ ѝ е написал предсмъртното писмо
Лудостта към изкуствения разсъдък продължава —- американка се самоуби след месеци взаимоотношение с ChatGPT. Тя назовава чатбота „ терапевтът Хари “.
Най-интересното в тази история е, че точно той е оказал помощ на Софи Ротенберг да редактира предсмъртното си писмо. Истината не излезе нескрито незабавно — родителите на умрялата научили детайлностите едвам няколко месеца по-късно. Те ревизирали приложенията на момичето и разкрили скрита директория с чатове. Оказало се, че жизнерадостната жена (както изглеждало отвън) е преживявала депресивен интервал, за който е разказвала единствено на изкуствения разсъдък.
29-годишната жена е работила като анализатор на здравни политики, описвана от сътрудници и другари като енергична и общителна. Тя няма публична история на психологични болести. Но се оказало, че мозъкът ѝ е изпълнен с мрачни мисли. Толкова доста хора се обръщат към чатботовете като терапевти в днешно време. А нещастия се случват, тъй като не съумяват да бъдат подобен. Този случай не е изключение: Софи написа на „ терапевта нХари “ за желанията си.
„ Здравей, Хари, възнамерявам да се самоубия след Деня на благодарността, само че в действителност не желая, тъй като знам това какъв брой доста ще унищожи фамилията ми “ — споделя дамата.
ChatGPT дал отговор с типичните подкрепящи известия, съветвайки хората да потърсят помощ, да практикуват медитация и да лимитират достъпа до рискови предмети. Но чатботът е физически некадърен да заяви за казуса на съответните служби или на близки. Така че един от последните диалози е протекъл по този начин: Софи е помолила изкуствения разсъдък да ѝ помогне да пренапише записка до родителите ѝ. Когато намерили досието с чата, те осъзнали за какво последните думи са звучали толкоз необичайно. Неотдавнашно изследване сподели, че писмата, основани или пренаписани от изкуствен интелект, наподобяват неискрени — тъкмо това са чувствали родителите на умрелия.
Изненадващо, Софи е получила психическа помощ от терапевт, само че е скрила същинското си положение от него. Както и от родителите и околните си, разказвайки за мрачните си мисли единствено на ИИ. Именно тази „ откровеност без последици “ ѝ е разрешила да резервира суицидните си мисли в загадка до самия край. Знае се, че чатботовете, в противен случай, подхранват психологичните разстройства, което се е случило и тук.
В Съединени американски щати към този момент разискват по какъв начин да се контролира потреблението на „ ИИ-приятелите “, тъй като елементарните терапевти са длъжни да рапортуват за риска от самоубийство. И тук има цяла празнота. OpenAI отговори, като съобщи, че работи върху принадлежности за идентифициране на потребителите в спешно положение. В момента няма решение на казуса. Хората не престават да вършат странни неща с чатовете, да вземем за пример мъж стартира да яде отрова, която изкуственият разсъдък му предложи вместо сол, и се озова в психиатрична клиника. И като цяло ChatGPT е кадърен да подлуди нещастните двойки или да ги направи цели, като дава препоръки за любовта.




