„Фалшиви хора“: Опасностите, породени от подобните на чат ботове за AI знаменитости на Meta

...
Meta обяви в сряда пристигането на чатботове с личности, подобни
Коментари Харесай

Meta обяви в сряда пристигането на чатботове с личности, подобни на определени знаменитости, с които ще бъде възможно да чатите. Представено като забавна еволюция на ChatGPT и други форми на AI, това най-ново технологично развитие може да се окаже опасно.

Meta (по-рано известен като Facebook) вижда това като "забавен" изкуствен интелект. Други обаче смятат, че това най-ново технологично развитие може да отбележи първата стъпка към създаването на „най-опасните артефакти в човешката история“, ако цитираме есето на американския философ Даниел К. Денет за „фалшивите хора“.

В сряда, 27 септември, гигантът на социалните мрежи обяви пускането на 28 чатбота (агенти за разговори), за които се предполага, че имат свои собствени индивидуалности и са специално проектирани за по-млади потребители. Те включват Виктор, така нареченият триатлонист, който може да ви мотивира „да бъдете най-добрият от себе си“, и Сали, „приятелят със свободен дух, който ще ви каже кога да си поемете дълбоко дъх“.

Интернет потребителите могат също разговаряйте с Макс, „опитен су-готвач“, който ще ви даде „кулинарни съвети и трикове“, или участвайте в словесна надпревара с Луиз, който „може да подкрепи глупостите си“.

Чатбот, който прилича на Парис Хилтън

За да затвърди идеята, че тези чатботове имат индивидуалност, а не просто смесица от алгоритми, Meta даде лице на всеки от тях . Благодарение на партньорствата със знаменитости, тези роботи приличат на американската джет сетърка и диджей Парис Хилтън, TikTok звездата Чарли Д'Амелио и американско-японската тенисистка Наоми Осака.

Трябва ли да се тревожим? ChatGPT издържа бизнес изпита на Ivy League

И това не е всичко. Meta отвори акаунти във Facebook и Instagram за всеки от своите разговорни агенти, за да им даде възможност за съществуване извън чат интерфейсите и работи върху това да им даде глас до следващата година. Компанията-майка на империята на Марк Зукърбърг също търсеше сценаристи, които могат да „пишат герои и друго поддържащо наративно съдържание, което да се хареса на широка аудитория“.

Meta може да представи тези 28 чатбота като невинно начинание за масово разсейване на младите интернет потребители, но всички тези усилия сочат към амбициозен проект за изграждане на изкуствен интелект, който да прилича колкото е възможно повече на хората, пише The Rolling Stone.

Тази надпревара за „фалшиви хора“ тревожи много наблюдатели, които вече са загрижени за последните разработки в изследванията на големия езиков модел (LLM), като ChatGPT и Llama 2, техния аналог във Facebook. Без да стигаме толкова далеч, колкото Денет, който призовава хора като Зукърбърг да бъдат затворени, „има редица мислители, които осъждат умишлено измамния подход на тези основни групи“, каза Ибо ван де Поел, професор по етика и технологии в Делфтския технологичен университет в Холандия.

ИИ с личности са „буквално невъзможни“

Идеята за разговорни агенти „с личност е буквално невъзможна“, каза ван де Поел. Алгоритмите не са в състояние да демонстрират „намерение в своите действия или „свободна воля“, две характеристики, които се считат за тясно свързани с идеята за личност“.

Мета и други могат в най-добрия случай да имитират определени черти, които изграждат личност. „Трябва да е технологично възможно, например, да се научи чатбот да се държи като лицето, което представлява“, каза ван де Поел. Например Амбър от AI на Мета, която трябва да прилича на Хилтън, може да е в състояние да говори по същия начин като своето човешко алтер его.

Следващата стъпка ще бъде да обучите тези LLM да изразяват същите мнения като човека, на когото приличат. Това поведение е много по-сложно за програмиране, тъй като включва създаване на вид точна мисловна картина на всички мнения на човек. Съществува и риск чатботовете с личности да се объркат. Един от разговорните агенти, които Мета тества, изрази „мизогинистични“ мнения, според Wall Street Journal, който успя да се консултира с вътрешни документи на компанията. Друг извърши „смъртния грях“ да критикува Зукърбърг и да възхвалява TikTok.

За да изгради тези чатботове, Meta обяснява, че целта е да им даде „уникални лични истории“. С други думи, създателите на тези AIs са написали биографии за тях с надеждата, че те ще могат да развият личност въз основа на това, което са чели за себе си. „Това е интересен подход, но би било полезно да добавим психолози към тези екипи, за да разберем по-добре личностните черти“, каза Анна Щрасер, немски философ, участвала в проект за създаване на голям езиков модел, способен да философства .

Последният AI проект на Meta очевидно е воден от жажда за печалба. „Хората без съмнение ще бъдат готови да платят, за да могат да говорят и да имат пряка връзка с Парис Хилтън или друга знаменитост“, каза Щрасер.

Колкото повече потребители се чувстват като че ли говорят с човешко същество, „толкова по-удобно е ще почувстват, колкото по-дълго ще останат и толкова по-вероятно е да се върнат“, каза ван де Поел. А в света на социалните медии времето – прекарано във Facebook и неговите реклами – е пари.

Инструмент, живо същество или нещо между тях?

Със сигурност не е изненадващо че първият набег на Meta в AI с „личност“ са чатботове, насочени предимно към тийнейджъри. „Знаем, че младите хора са по-склонни да бъдат антропоморфни“, каза Щрасер.

Интервюираните експерти обаче смятат, че Мета играе опасна игра, като набляга на „човешките характеристики“ на техния ИИ. „Наистина бих предпочел, ако тази група беше положила повече усилия да обясни границите на тези разговорни агенти, вместо да се опитва да ги направи да изглеждат по-човешки“, каза ван де Поел.

ChatGPT: Киберпрестъпниците отделят слюнка за побеждаващия света AI chatbot

Появата на тези мощни LLM разстрои "дихотомията между това, което е инструмент или обект, и това, което е живо същество. Тези ChatGPT са трети тип агенти, които стоят някъде между двете крайности“, каза Щрасер. Човешките същества все още се учат как да взаимодействат с тези странни нови същества, така че като кара хората да вярват, че един разговорен агент може да има личност, Мета предлага той да бъде третиран повече като друго човешко същество, отколкото като инструмент.

„Интернет потребителите са склонни да вярват на това, което казват тези ИИ“, което ги прави опасни, каза ван де Поел. Това не е само теоретичен риск: човек в Белгия се самоуби през март 2023 г., след като обсъждаше последиците от глобалното затопляне с разговорен агент в продължение на шест седмици.

Преди всичко, ако границата между света на ИИ и хората в крайна сметка се замъгли напълно, „това потенциално може да разруши доверието във всичко, което намираме онлайн, защото няма да знаем кой какво е написал“, каза Щрасер. Това, както Денет предупреждава в есето си, би отворило вратата към "унищожаването на нашата цивилизация. Демокрацията зависи от информираното (не дезинформирано) съгласие на управляваните [което не може да бъде получено, ако вече не знаем на какво и на кого да вярваме]".

Остава да видим дали чатът с изкуствен интелект, подобен на Хилтън, означава, че сме на път да унищожим света, какъвто го познаваме.

Тази статия е преведена от оригинала на френски.

Източник: france24.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР