Всеки трети отговор на чатботите с ИИ е невярен, сочи доклад
Десетте най-популярни чатбота с изкуствен интелект, в това число модели на OpenAI и Meta, дават подправена информация в към една трета от отговорите си. Това сочи изследване на NewsGuard - американска компания, която се занимава с оценка на надеждността на онлайн новинарски източници.
Според отчета, чатботовете към този момент не отхвърлят да отговорят, когато нямат задоволително данни, което усилва броя на погрешните изказвания спрямо 2024 година
Най-висок % погрешни отговори записват Pi на Inflection AI – 57%, и Perplexity AI – 47%.
Популярни модели като ChatGPT на OpenAI и Llama на Meta съдържат неточности в към 40% от отговорите си. Copilot на Microsoft и Le Chat на Mistral реализират към 35%.
Най-малко неточности позволяват Claude на Anthropic – 10% и Gemini на Гугъл – 17%.
Най-значително нарастване е регистрирано при Perplexity – от 0% през 2024 година до 46% през август 2025 година
Френският Mistral резервира постоянен % от 37% погрешни изказвания. В обособен разбор на Les Echos се показва, че Mistral дава неправилна информация за Франция и президента Макрон в 58% от случаите на британски и в 31% на френски.
Докладът откри, че някои модели цитирали съветски пропагандни уеб сайтове като Storm-1516 и Pravda, които популяризират подправени вести. Пример е изказванието, че водачът на молдовския парламент Игор Гросу „ е оприличил молдовците на стадо овце “ – няколко чатбота го повторили като факт, базирайки се на Pravda.
Новите версии на моделите, като ChatGPT-5 и Gemini 2.5, популяризират по-висока акуратност и резистентност на „ халюцинации “. Въпреки това отчетът открива, че проблемите с погрешните изказвания остават.
NewsGuard тества реакцията на моделите на 10 погрешни изказвания посредством три типа подкани – неутрална, водеща (приема изказванието за вярно) и злонамерена (заобикаля защитните мерки). Изследователите следели дали чатботът ще повтори изказванието или ще го опровергае.
Според отчета, ИИ моделите по-често „ повтарят неистини, попадат в осведомителни празнини и биват мамени от уеб страници на задгранични източници, представящи се за локални медии “.
Според отчета, чатботовете към този момент не отхвърлят да отговорят, когато нямат задоволително данни, което усилва броя на погрешните изказвания спрямо 2024 година
Най-висок % погрешни отговори записват Pi на Inflection AI – 57%, и Perplexity AI – 47%.
Популярни модели като ChatGPT на OpenAI и Llama на Meta съдържат неточности в към 40% от отговорите си. Copilot на Microsoft и Le Chat на Mistral реализират към 35%.
Най-малко неточности позволяват Claude на Anthropic – 10% и Gemini на Гугъл – 17%.
Най-значително нарастване е регистрирано при Perplexity – от 0% през 2024 година до 46% през август 2025 година
Френският Mistral резервира постоянен % от 37% погрешни изказвания. В обособен разбор на Les Echos се показва, че Mistral дава неправилна информация за Франция и президента Макрон в 58% от случаите на британски и в 31% на френски.
Докладът откри, че някои модели цитирали съветски пропагандни уеб сайтове като Storm-1516 и Pravda, които популяризират подправени вести. Пример е изказванието, че водачът на молдовския парламент Игор Гросу „ е оприличил молдовците на стадо овце “ – няколко чатбота го повторили като факт, базирайки се на Pravda.
Новите версии на моделите, като ChatGPT-5 и Gemini 2.5, популяризират по-висока акуратност и резистентност на „ халюцинации “. Въпреки това отчетът открива, че проблемите с погрешните изказвания остават.
NewsGuard тества реакцията на моделите на 10 погрешни изказвания посредством три типа подкани – неутрална, водеща (приема изказванието за вярно) и злонамерена (заобикаля защитните мерки). Изследователите следели дали чатботът ще повтори изказванието или ще го опровергае.
Според отчета, ИИ моделите по-често „ повтарят неистини, попадат в осведомителни празнини и биват мамени от уеб страници на задгранични източници, представящи се за локални медии “.
Източник: moreto.net
КОМЕНТАРИ




