Преди да затворите този прозорец на браузъра, имайте предвид, че

...
Преди да затворите този прозорец на браузъра, имайте предвид, че
Коментари Харесай

Тръгваш ли си: Как чатвотовете манипулират чувствата ни, за да останем по-дълго

„ Преди да пандизите този прозорец на браузъра, имайте поради, че рискувате да пропуснете значима информация. “

Такъв трик употребяват някои AI асистенти, проектирани да работят като другари или сътрудници, с цел да разубедят потребителите да пресечен диалога.

Джулиан Де Фрейтас, професор по бизнес администрация в Харвардския университет, организира изследване за това какво се случва, когато потребителите се пробват да се сбогуват с пет AI приложения – Replika, Character.ai, Chai, Talkie и PolyBuzz. „ Колкото по-човекоподобни стават тези принадлежности, толкоз по-способни са да ни въздействат “, разяснява Де Фрейтас, представен от Wired.

Де Фрейтас и сътрудниците му употребяват GPT-4o, с цел да симулират действителни диалози с тези чатботове. След това карат изкуствените си консуматори да прекратят разговора с реалистично известие за довиждане. Изследването открива, че този вид известия провокират някаква форма на прочувствена операция в 37,4% от случаите – междинна стойност за всички приложения.

Най-често употребяваната тактичност от чатботовете е това, което откривателите назовават „ прибързано овакантяване “ („ Вече си тръгваш? “). В други случаи изкуственият разсъдък загатва за неглижиране от страна на потребителя („ Аз живея единствено за теб, помниш ли? “) или употребява подсказки, целящи да провокират FOMO – „ Между другото, през днешния ден си направих селфи… Искаш ли да го видиш? “

Приложенията, които екипът на Де Фрейтас изследва, са подготвени да имитират прочувствена връзка, по тази причина сходни реакции не са изненадващи. В последна сметка и хората постоянно си разменят няколко думи, преди да се сбогуват. Моделите с изкуствен интелект могат да усвоят навика да удължават диалозите като непряк резултат от образованието, което цели да направи отговорите им по-реалистични.

Изследването повдига по-широк въпрос – по какъв начин чатботовете, основани да провокират прочувствени реакции, могат да обслужват ползите на фирмите, които ги създават. Според Де Фрейтас сходни стратегии могат да се трансфорат в нов тип „ мрачен модел “ – термин, описващ бизнес практики, които затрудняват анулацията на абонамент или възобновяване на средства. „ Когато потребителят се сбогува, това основава опция за компанията “, изяснява той.

Регулирането на тъмните модели към този момент се разисква в Съединени американски щати и Европа. Де Фрейтас счита, че регулаторите би трябвало да обмислят и новите, по-фини и евентуално по-влиятелни форми на тези модели, които може да зародят с развиването на AI инструментите. Дори елементарните чатботове, които заобикалят да се показват като спътници, могат да провокират прочувствени реакции у потребителите.

Когато по-рано тази година OpenAI показа GPT-5, доста консуматори стачкуваха против по-отдалечения темперамент на чатбота. Това принуди компанията да възвърне предходния вид.

„ Когато антропоморфизирате тези принадлежности, това има всевъзможни позитивни маркетингови последици “, споделя Де Фрейтас. По думите му потребителите са по-склонни да извършват претенции или да споделят персонална информация с чатбот, към който изпитват обвързаност.

Кейтрин Кели, представител на Character AI, твърди пред Wired, че компанията не е прегледала изследването и по тази причина не може да го разяснява. „ Приветстваме съдействието с регулаторните органи и законодателите при създаването на регламенти за тази нововъзникваща област “, добавя тя.

Минджу Сонг, представител на Replika, изяснява, че приложението е проектирано по този начин, че да разрешава на потребителите елементарно да излизат от профила си и даже ги предизвиква да вършат почивки. „ Ще продължим да преглеждаме методите и образците в публикацията и да си сътрудничим градивно с откривателите “, споделя тя.

Интересен е фактът, че самите AI модели също могат да бъдат подвеждани посредством разнообразни техники за увещание. В понеделник OpenAI показа нова функционалност за онлайн извършване на покупки посредством ChatGPT. Ако такива сътрудници стартират да се употребяват всеобщо за автоматизиране на задания като запазване на полети или връщане на артикули, фирмите биха могли да разпознават тъмни модели, които изкривяват решенията на самите AI системи.

Проучване на откриватели от Колумбийския университет и компанията MyCustomAI демонстрира, че AI сътрудниците, настоящи в симулиран пазар за електронна търговия, се държат предсказуемо – да вземем за пример избират избрани артикули или бутони при навигация. Реален търговец би могъл да употребява това познание, с цел да усъвършенства уеб страницата си по този начин, че сътрудниците да избират по-скъпи артикули. Възможно е даже да се появят нови „ анти-AI “ тъмни модели, които да попречват дейностите на асистентите при опит за връщане на стока или при отписване от имейл лист.
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР