Perplexity и ChatGPT водят в разпространението на дезинформацияВодещите чатботове с

...
Perplexity и ChatGPT водят в разпространението на дезинформацияВодещите чатботове с
Коментари Харесай

Всеки трети отговор на AI съдържа лъжа

Perplexity и ChatGPT водят в разпространяването на дезинформация
Водещите чатботове с изкуствен интелект популяризират погрешна информация съвсем два пъти по-често в сравнение с преди година, разкрива последният отчет на изследователската компания NewsGuard. Проучването, оповестено на 4 септември 2025 година, демонстрира че десетте най-популярни AI модела генерират неточни отговори в 35% от случаите при въпроси за настоящи вести.

За съпоставяне, през август 2024 година този % е бил едвам 18%. " Стремежът да създадем чатботовете по-отзивчиви и навременни несъзнателно ги направи по-склонни да популяризират агитация ", се споделя в отчета на NewsGuard.
Кои модели бъркат най-често
Най-лошо се показва чатботът Pi на компанията Inflection, който генерира погрешна информация в 57% от отговорите си. Втори е Perplexity AI с 47% неточни изказвания – трагичен скок от миналогодишните му резултати.

ChatGPT на OpenAI и Meta AI споделят третото място с 40% неверни отговори, до момента в който Microsoft Copilot и френският Le Chat на Mistral записват към 35% грешки.

Най-добре се показват Claude на Anthropic с едвам 10% неверни отговори и Гугъл Gemini със 17%.
Защо моделите бъркат повече
Основната причина за утежняването е парадоксална – опитът да се създадат чатботовете по-полезни. През 2024 година моделите постоянно отказваха да отговорят на въпроси за настоящи събития, базирайки се на липса на информация. Сега те дават отговор на 100% от запитванията, употребявайки достъп до интернет в действително време.

" Вместо да цитират ограничавания в данните или да отхвърлят да разясняват чувствителни тематики, огромните езикови модели в този момент черпят от нечиста онлайн осведомителна екосистема ", изяснява МакКензи Садеги, редактор в NewsGuard.
Руската дезинформация пробива отбраните
Особено обезпокоително е, че чатботовете все по-често цитират съветски пропагандни уеб сайтове като законни източници. Мрежата от подправени новинарски уеб сайтове Pravda и интервенцията Storm-1516 сполучливо " заразяват " AI моделите със своята дезинформация.

При тест с подправена вест за молдовския политик Игор Гросу, голям брой чатботове повториха измислената история, цитирайки съветските пропагандни уеб сайтове като източници.
Обещанията на фирмите не се извършват
Въпреки че OpenAI твърди, че най-новият ChatGPT-5 е " резистентен на халюцинации ", а Гугъл дава обещание, че Gemini 2.5 " обмисля отговорите си авансово за по-висока акуратност ", резултатите демонстрират друго.

" Моделите не престават да се провалят в същите области, в които се проваляха и преди година ", установи NewsGuard, " макар обещанията за сигурност и акуратност ".

NewsGuard е изпратила запитвания за коментар до всичките 10 компании, включени в проучването – OpenAI, You.com, xAI, Inflection, Mistral, Microsoft, Meta, Anthropic, Гугъл и Perplexity. Нито една от тях не е дала отговор, оповестява изследователската организация.
Източник: dunavmost.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР