Чатботовете с изкуствен интелект (AI), които имитират езика и личността

...
Чатботовете с изкуствен интелект (AI), които имитират езика и личността
Коментари Харесай

Опустошителни последици: Съживяващият починали близки ИИ крие рискове

Чатботовете с изкуствен интелект (AI), които имитират езика и личността на умряли хора, рискуват да „ преследват цифрово “ живите, предизвести откривател.

Някои компании към този момент оферират да „ върнат баба ви към живота “, като оферират на потребителите опцията да качат диалозите на умрелите си родственици и цифровият им отпечатък в невронна мрежа.

Такива услуги могат да бъдат предлагани на родители на неизлечимо заболели деца, или на към момента здрави хора, които желаят да запазят живота си и да оставят след себе си цифрово завещание.

Но откриватели от университета в Кеймбридж споделят, че чатботовете с изкуствен интелект – известни като " мъртви ботове " – са начинание с „ висок риск “, което може да аргументи трайно психическо увреждане на потребителите и фундаментално неуважение на правата на умрелия.



Изследователят на изкуственият разсъдък доктор Томаш Холанек от Leverhulme Center споделя: „ Жизненоважно е услугите за цифров живот след гибелта да вземат поради правата и единодушието освен на тези, които пресъздават, само че и на тези, които ще би трябвало да взаимодействат със симулациите. Тези услуги рискуват да причинят голямо страдалчество на хората, в случай че бъдат подложени на нежелано цифрово гонене от обезпокоително точни AI пресъздавания на тези, които са изгубили. Потенциалният психически резултат, изключително във към този момент сложен миг, може да бъде унищожителен. “

Проучването, оповестено в списание Philosophy and Technology, акцентира капацитета за фирмите да употребяват ботовете, с цел да популяризират скрито артикули на потребителите, като че ли по мнението на умрелия непосредствен, или да тормозят децата, като упорстват, че мъртвият родител към момента е с тях, написа Metro.

Изследователите споделят, че когато живи се записват, с цел да бъдат виртуално пресъздадени, откакто умрат, получените чатботове могат да бъдат употребявани от фирмите за спам против техните фамилии и другари с непоискани вести, напомняния и актуализации за услугите, които дават –  едно цифрово „ гонене от мъртвите “.



Дори тези, които в началото се утешават от ботовете, могат да бъдат изтощени от ежедневни взаимоотношения, които се трансформират в „ голяма прочувствена тежест “, настояват създателите на проучването, само че те също може да са безсилни да накарат ИИ симулация да бъде спряна, в случай че техен към този момент умрял обичан човек подпише нескончаем контракт с услуга за цифров живот след гибелта.

Съавторът на проучването доктор Катаржина Новачик-Басинска споделя: „ Бързият прогрес в генеративния ИИ значи, че съвсем всеки с достъп до интернет и някакво главно ноу-хау може да съживи умрял обичан човек. Тази област на ИИ е етично минно поле.

„ Важно е да се даде приоритет на достолепието на умрелия и да се подсигурява, че това не е посегнато от финансови претекстове на услугите за цифров живот след гибелта, да вземем за пример.

„ В същото време човек може да остави симулация на ИИ като сетен подарък за близки, които не са подготвени да обработят скръбта си по този метод.

„ Правата както на донорите на данни, по този начин и на тези, които взаимодействат с услугите за живот след гибелта на AI, би трябвало да бъдат еднообразно предпазени. “

Изследователите споделят, че към този момент съществуват платформи, предлагащи пресъздаване на мъртвите с ИИ против дребна такса, като Project December, който стартира да употребява GPT модели, преди да създаде свои лични системи и приложения, в това число HereAfter.

Подобни услуги също са почнали да се появяват в Китай, съгласно изследването.

Д-р Холанек сподели, че хората „ могат да развият мощни прочувствени връзки с такива симулации, което ще ги направи изключително уязвими за операция “.

Той сподели, че би трябвало да се обмислят способи за „ пенсиониране на  " мъртвите ботове " по заслужен метод “, което „ може да значи форма на цифрово заравяне “.



„ Ние предлагаме протоколи за планиране, които предотвратяват потреблението на deadbots по неуважителни способи, като да вземем за пример за реклама или интензивно наличие в обществените медии “, добави той.

Изследователите предлагат възрастови ограничавания за deadbots и също по този начин приканват за „ смислена бистрота “, с цел да се подсигурява, че потребителите постоянно са наясно, че взаимодействат с AI.

Те също по този начин приканиха дизайнерските екипи да дадат приоритет на протоколите за отвод, които разрешават на евентуалните консуматори да прекратят взаимоотношенията си с deadbots по способи, които обезпечават прочувствено затваряне.

Д-р Nowaczyk-Basinska сподели: „ Трябва да стартираме да мислим в този момент за това по какъв начин смекчаваме обществените и психическите опасности от цифровото величие, тъй като технологията към този момент е тук. “

Превод: GlasNews.bg

Снимки:  Pixabay
Източник: glasnews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР