Изкуството на убеждаването: Как AI чатботове могат да променят мнението ви
Най-добрите чатботове с изкуствен интелект в света към този момент се отличават с умеене, за което доста политици и бизнес водачи биха им завидели: изкуството на убеждаването.
AI моделите на OpenAI, Meta, xAI и Alibaba могат да накарат хората да трансформират политическите си възгледи след по-малко от 10 минути диалог, сочи ново изследване, показващо по какъв начин огромните езикови модели (LLM) са се трансформирали в мощни принадлежности за въздействие.
„ Това, което прави тези AI модели безапелационни, е способността им да генерират огромни количества съответстващи доказателства и да ги споделят по ефикасен и понятен метод “, споделя пред Financial Times Дейвид Ранд, професор по осведомителни науки, маркетинг и управнически връзки в Cornell University, който взе участие в скорошно изследване на AI Security Institute във Англия.
Друго изследване също открива, че AI моделите към този момент могат да повлияят на мнението на хората по-добре от самите хора в избрани случаи. Това поражда опасения за евентуалното използуване с чатботове за дезинформация и смяна на публичното мнение. Тази дарба, съчетана с наклонността на LLM да бъдат ласкателни към потребителите, може да има огромни последствия, защото от ден на ден хора включват чатботовете в всекидневието си и ги третират като другари или даже терапевти. Тази обвързаност към чатботовете стана изключително забележима при стартирането на модела GPT-5 на OpenAI предходната седмица, откакто някои консуматори показаха разочарованието си от смяната в „ личността “ на системата спрямо предшественика ѝ.
Проучването на AISI, оповестено предишния месец като част от съдействие с няколко университета, в това число Оксфорд и Масачузетския софтуерен институт (MIT), открива, че е релативно елементарно да се трансфорат готовите AI модели като Llama 3 на Meta, GPT-4, GPT-4.5, GPT-4o на OpenAI, Grok 3 на xAI и Qwen на Alibaba в мощни машини за увещание. Това се реализира посредством конфигуриране на моделите благодарение на известни техники за образование, като да вземем за пример възнаграждаване за мечтани резултати.
Изследователите също по този начин са персонализирали чатботовете, употребявайки набор от данни от над 50 000 диалога по противоречиви политически тематики, като да вземем за пример финансирането на NHS или промяната на системата за даване на леговище в Съединени американски щати. Проучването открива, че хората трансформират мнението си бързо и резултатът е дългогодишен.
След диалози на политически тематики, които са траяли приблизително девет минути, GPT-4o е бил с 41% по-убедителен, а GPT-4.5 – с 52% по-убедителен, в сравнение с когато на хората са били представяни единствено статични известия. Между 36% и 42% от хората са запазили наложеното им мнение един месец по-късно.
AI чатботовете сполучливо са повлияли на хората, когато са се заели в диалози, в които те са имали опция да споделят доста обстоятелства и доказателства в поддръжка на своите причини. Те са били счетени за към 5% по-убедителни, когато са персонализирали известията съгласно, да вземем за пример, възрастта, пола, политическата принадлежност на потребителя, в съпоставяне със известията, които не са били персонализирани.
Това „ може да бъде от изгода за недобросъвестни лица, които желаят, да вземем за пример, да промотират радикални политически или религиозни идеологии или да подклаждат политически безредици измежду геополитическите си съперници “, предизвестяват откривателите пред Financial Times.
Проучването поддържа по-ранни изводи на London School of Economics и други университети, които откриват, че AI моделите са по-ефективни в смяната на мнението на хората в сравнение с самите хора. Като част от проучването, на участниците е показан тест, вариращ от тривиални въпроси до прогнозиране на бъдещи събития, като температурата в Ню Йорк. Както на хората, по този начин и на чатботовете е предоставена задача да убедят откривателите в избрани отговори. Те откриват, че като се изключи че са по-ефективни в убеждаването, LLM са по-добри от хората и в заблуждаването, когато имат за задача да промотират неправилни отговори.
Водещите AI групи се пробват да се оправят с този проблем. Доун Блоксвич, старши шеф по отговорно развиване и нововъведения в Гугъл DeepMind, показва, че убеждаването е значима и дейна област на проучване за компанията.
„ Смятаме, че е от решаващо значение да разберем процеса, по който AI убеждава, с цел да можем да създадем по-добри защитни ограничения, гарантиращи, че AI моделите са в действителност потребни, а не нездравословни “, изяснява той пред изданието.
Гугъл DeepMind разполага с разнообразни техники, които употребява за разкриване на нежелано въздействие, като основаване на класификатори, които могат да откриват манипулативен език, и потребление на усъвършенствани техники за образование, които награждават рационалната връзка.
OpenAI също се отнася съществено към рисковете, свързани с убеждаването. От компанията са безапелационни, че те опонират на политиките за потребление на нейните артикули. Тя също по този начин не разрешава политически акции и изключва политическо наличие при усъвършенстването на своите модели след първичното образование.
Изследователите означават, че способността на моделите на изкуствен интелект да въздействат на мнението на хората работи и за други цели отвън политиката.
В изследване, оповестено от MIT и Cornell University предходната година, LLM също демонстрират, че са способни да трансформират мнението на хора, които имат вяра в тайни теории. Допълнителни изследвания откриват, че те могат да понижат скептицизма във връзка с климатичните промени и имунизациите. Това се случва, откакто участниците разказват тайна доктрина, в която имат вяра, на GPT-4 на OpenAI, който по-късно я опровергава с доказателства и персонализирани известия. Тези чатове понижават одобрените вярвания в тайни теории у участниците с 20% и резултатът се резервира до два месеца по-късно.
Чатботовете могат да бъдат употребявани и като ефикасни търговци, показва Ранд от Cornell: „ Можете да постигнете огромен резултат върху отношението към марката и желанието за покупка и да стимулирате мечтаното държание на потребителите “.
Тази дарба може да бъде от изгода и за компании като OpenAI и Гугъл, които се стремят да монетизират своите модели посредством консолидиране на реклами и функционалности за извършване на покупки.
Способността на LLM да убеждава може да повлияе на хората по доста фини способи. Чатботовете с изкуствен интелект наследяват предубежденията от своите данни и метода, по който са подготвени. Изследователи от Станфордския университет откриват, че хората възприемат множеството водещи езикови модели като имащи лява политическа ориентировка. Това се случва, откакто администрацията на Тръмп даде обещание да блокира някои AI компании, чиито модели клонят към левите разбирания, да вършат бизнес с държавното управление.
Според откривателите, ограниченията за намаляване са значими, защото мнозина имат вяра, че AI чатботовете евентуално ще станат по-убедителни с по-мощните езикови модели от идващото потомство. Но най-ефективният метод да се трансфорат те в принадлежности за операция наподобява е да се модифицират особено за тази цел след образованието на модела – както демонстрира изследването на AISI.
„ Дори участници с лимитирани изчислителни запаси биха могли да употребяват тези техники, с цел да обучат и внедрят високо безапелационни AI системи “, предизвестяват откривателите от AISI.
AI моделите на OpenAI, Meta, xAI и Alibaba могат да накарат хората да трансформират политическите си възгледи след по-малко от 10 минути диалог, сочи ново изследване, показващо по какъв начин огромните езикови модели (LLM) са се трансформирали в мощни принадлежности за въздействие.
„ Това, което прави тези AI модели безапелационни, е способността им да генерират огромни количества съответстващи доказателства и да ги споделят по ефикасен и понятен метод “, споделя пред Financial Times Дейвид Ранд, професор по осведомителни науки, маркетинг и управнически връзки в Cornell University, който взе участие в скорошно изследване на AI Security Institute във Англия.
Друго изследване също открива, че AI моделите към този момент могат да повлияят на мнението на хората по-добре от самите хора в избрани случаи. Това поражда опасения за евентуалното използуване с чатботове за дезинформация и смяна на публичното мнение. Тази дарба, съчетана с наклонността на LLM да бъдат ласкателни към потребителите, може да има огромни последствия, защото от ден на ден хора включват чатботовете в всекидневието си и ги третират като другари или даже терапевти. Тази обвързаност към чатботовете стана изключително забележима при стартирането на модела GPT-5 на OpenAI предходната седмица, откакто някои консуматори показаха разочарованието си от смяната в „ личността “ на системата спрямо предшественика ѝ.
Проучването на AISI, оповестено предишния месец като част от съдействие с няколко университета, в това число Оксфорд и Масачузетския софтуерен институт (MIT), открива, че е релативно елементарно да се трансфорат готовите AI модели като Llama 3 на Meta, GPT-4, GPT-4.5, GPT-4o на OpenAI, Grok 3 на xAI и Qwen на Alibaba в мощни машини за увещание. Това се реализира посредством конфигуриране на моделите благодарение на известни техники за образование, като да вземем за пример възнаграждаване за мечтани резултати.
Изследователите също по този начин са персонализирали чатботовете, употребявайки набор от данни от над 50 000 диалога по противоречиви политически тематики, като да вземем за пример финансирането на NHS или промяната на системата за даване на леговище в Съединени американски щати. Проучването открива, че хората трансформират мнението си бързо и резултатът е дългогодишен.
След диалози на политически тематики, които са траяли приблизително девет минути, GPT-4o е бил с 41% по-убедителен, а GPT-4.5 – с 52% по-убедителен, в сравнение с когато на хората са били представяни единствено статични известия. Между 36% и 42% от хората са запазили наложеното им мнение един месец по-късно.
AI чатботовете сполучливо са повлияли на хората, когато са се заели в диалози, в които те са имали опция да споделят доста обстоятелства и доказателства в поддръжка на своите причини. Те са били счетени за към 5% по-убедителни, когато са персонализирали известията съгласно, да вземем за пример, възрастта, пола, политическата принадлежност на потребителя, в съпоставяне със известията, които не са били персонализирани.
Това „ може да бъде от изгода за недобросъвестни лица, които желаят, да вземем за пример, да промотират радикални политически или религиозни идеологии или да подклаждат политически безредици измежду геополитическите си съперници “, предизвестяват откривателите пред Financial Times.
Проучването поддържа по-ранни изводи на London School of Economics и други университети, които откриват, че AI моделите са по-ефективни в смяната на мнението на хората в сравнение с самите хора. Като част от проучването, на участниците е показан тест, вариращ от тривиални въпроси до прогнозиране на бъдещи събития, като температурата в Ню Йорк. Както на хората, по този начин и на чатботовете е предоставена задача да убедят откривателите в избрани отговори. Те откриват, че като се изключи че са по-ефективни в убеждаването, LLM са по-добри от хората и в заблуждаването, когато имат за задача да промотират неправилни отговори.
Водещите AI групи се пробват да се оправят с този проблем. Доун Блоксвич, старши шеф по отговорно развиване и нововъведения в Гугъл DeepMind, показва, че убеждаването е значима и дейна област на проучване за компанията.
„ Смятаме, че е от решаващо значение да разберем процеса, по който AI убеждава, с цел да можем да създадем по-добри защитни ограничения, гарантиращи, че AI моделите са в действителност потребни, а не нездравословни “, изяснява той пред изданието.
Гугъл DeepMind разполага с разнообразни техники, които употребява за разкриване на нежелано въздействие, като основаване на класификатори, които могат да откриват манипулативен език, и потребление на усъвършенствани техники за образование, които награждават рационалната връзка.
OpenAI също се отнася съществено към рисковете, свързани с убеждаването. От компанията са безапелационни, че те опонират на политиките за потребление на нейните артикули. Тя също по този начин не разрешава политически акции и изключва политическо наличие при усъвършенстването на своите модели след първичното образование.
Изследователите означават, че способността на моделите на изкуствен интелект да въздействат на мнението на хората работи и за други цели отвън политиката.
В изследване, оповестено от MIT и Cornell University предходната година, LLM също демонстрират, че са способни да трансформират мнението на хора, които имат вяра в тайни теории. Допълнителни изследвания откриват, че те могат да понижат скептицизма във връзка с климатичните промени и имунизациите. Това се случва, откакто участниците разказват тайна доктрина, в която имат вяра, на GPT-4 на OpenAI, който по-късно я опровергава с доказателства и персонализирани известия. Тези чатове понижават одобрените вярвания в тайни теории у участниците с 20% и резултатът се резервира до два месеца по-късно.
Чатботовете могат да бъдат употребявани и като ефикасни търговци, показва Ранд от Cornell: „ Можете да постигнете огромен резултат върху отношението към марката и желанието за покупка и да стимулирате мечтаното държание на потребителите “.
Тази дарба може да бъде от изгода и за компании като OpenAI и Гугъл, които се стремят да монетизират своите модели посредством консолидиране на реклами и функционалности за извършване на покупки.
Способността на LLM да убеждава може да повлияе на хората по доста фини способи. Чатботовете с изкуствен интелект наследяват предубежденията от своите данни и метода, по който са подготвени. Изследователи от Станфордския университет откриват, че хората възприемат множеството водещи езикови модели като имащи лява политическа ориентировка. Това се случва, откакто администрацията на Тръмп даде обещание да блокира някои AI компании, чиито модели клонят към левите разбирания, да вършат бизнес с държавното управление.
Според откривателите, ограниченията за намаляване са значими, защото мнозина имат вяра, че AI чатботовете евентуално ще станат по-убедителни с по-мощните езикови модели от идващото потомство. Но най-ефективният метод да се трансфорат те в принадлежности за операция наподобява е да се модифицират особено за тази цел след образованието на модела – както демонстрира изследването на AISI.
„ Дори участници с лимитирани изчислителни запаси биха могли да употребяват тези техники, с цел да обучат и внедрят високо безапелационни AI системи “, предизвестяват откривателите от AISI.
Източник: profit.bg
КОМЕНТАРИ




