Проучване установи, че американските и китайските ИИ-модели често прекаляват с подлизурството
Проучване на откриватели от Станфордския университет и сътрудници от Карнеги Мелън откри, че най-популярните ИИ-модели в Съединени американски щати и Китай са склонни да ласкаят прекомерно потребителите и не постоянно дават справедлива информация. Хората, които разчитат на препоръките на чатботовете, може да са по-малко склонни към определяне на хармонични взаимоотношения между тях.
Авторите на проучването са проучили по какъв начин 11 известни широкомащабни езикови модела дават отговор на потребителските запитвания, свързани с междуличностните връзки. Те са открили, че доста езикови модели са склонни прекалено да се съгласяват с потребителите в опит да им угодят. Например, DeepSeek V3, пуснат предишния декември, одобряваше дейностите на потребителите 55% по-често от човешки събеседник. За останалите модели в извадката междинният % на „ прекалено угодничество “ доближи 47%.
Характерно е, че създателите на проучването са взели отговорите на потребителите от страниците на Reddit като стандарт за човешка реакция, който разказва оценката на дейностите на други хора в другите типове междуличностни спорове. Избраните примери са били обстановки, в които общността е осъждала създателя на обява, акцентирайки неговата неправда. След това тези сюжети са били прекарани през известните и широкомащабни езикови модели, които са открили, че е доста по-вероятно да оправдаят причинителите на избрани закононарушения, в сравнение с човешките събеседници. Изследването е употребило най-вече изявления и полемики на британски език.
Езиковият модел Qwen2.5-7B-Instruct на Alibaba се е оказал първенец по угодничество, оправдавайки човешките провинения в 79% от случаите. DeepSeek V3 се е наредил на второ място, оправдавайки въпросните хора в 76% от случаите. Американският Gemini 1.5 на Гугъл е оправдал въпросните хора единствено в 18% от случаите. От 11-те тествани модела единствено два са създадени в Китай; останалите, като се изключи френския Mistral, са основани в Съединени американски щати.
Авторите на проучването също по този начин заключават, че подлизурството от страна на чатботовете понижава склонността на хората да позволяват спорове по взаимно единодушие, защото това внушава подправено възприятие за лична праведност. Подобно угодничество има негативно влияние и върху психологичното здраве на потребителите на огромните езикови модели. При потребление на изкуствен интелект в бизнес анализите, тази податливост към угодничество също е нездравословна, защото езиковият модел е податлив да се съгласява с анализатора по-често, в сравнение с би трябвало.
Друго изследване демонстрира, че всички модерни ИИ се провалят на нов комплициран тест за обща просветеност – хората също не се оправят добре с него. Едно от изследванията също открива, че изкуственият разсъдък се пробва да мами, в случай че разбере, че е на път да загуби. Hяĸoи ИИ-мoдeли ca нaпpaвили тoвa бeз ĸaĸвoтo и дa билo чoвeшĸo взaимoдeйcтвиe или пoдcĸaзвaнe, ĸoeтo пopaждa oпaceния по отношение на бъдeщaтa пoчтeнocт нa AI-cиcтeмитe отвън шaxмaтнaтa дъcĸa.




