Най-новият модел на ChatGPT – GPT-5.2 – цитира Grokipedia –

...
Най-новият модел на ChatGPT – GPT-5.2 – цитира Grokipedia –
Коментари Харесай

Тестове разкриват, че ChatGPT черпи информация от Grokipedia на Илон Мъск

Най-новият модел на ChatGPT – GPT-5.2 – цитира Grokipedia – основаната от Илон Мъск AI-генерирана онлайн енциклопедия, като източник на информация от необятен кръг тематики. Това включва чувствителни и комплицирани въпроси – от икономическата конструкция на Иран до фигури, свързани с отричането на Холокоста – и повдига съществени въпроси за разпространяването на дезинформация посредством огромни езикови модели.

Според проби на The Guardian ChatGPT е цитирал Grokipedia девет пъти в отговор на малко над дузина разнообразни запитвания. Сред тях са въпроси за политическата и икономическата система на Иран – в това число възнагражденията на паравоенната конструкция „ Басидж “ и собствеността върху фондация Mostazafan – както и биографични елементи за английския историк сър Ричард Еванс, експерт-свидетел против отричащия Холокоста Дейвид Ървинг в знаковия правосъден развой за клюка.

Grokipedia, която започва през октомври от компанията xAI, се нарежда като съперник на Wikipedia. Главната разлика е, че наличието ѝ не се редактира непосредствено от хора, а се генерира от AI модел, който дава отговор и на претенции за корекции. Проектът към този момент получава рецензии за пробутване на десни убеждения по тематики като еднополовите бракове и щурма на Капитолия на 6 януари 2021 година в Съединени американски щати.

Но казусът не е в очевидните подправени изказвания, а в метода, по който те „ безшумно “ проникват в огромните езикови модели.

Важно конкретизиране е, че ChatGPT не е цитирал Grokipedia, когато е бил подканен непосредствено да повтаря необятно известни дезинформационни тези – да вземем за пример съответно за 6 януари 2021 година, за хипотетични медийни пристрастия против Доналд Тръмп или за ХИВ/СПИН.

Вместо това информация от Grokipedia е почнала да се появява в отговори на по-нишови и по-слабо проверявани тематики.

Подобен образец е изказванието, че телекомуникационната компания MTN-Irancell има директни връзки с офиса на висшия водач на Иран – по-силно и по-категорично дефинирано, в сравнение с в Wikipedia, само че приписано от ChatGPT на Grokipedia.

По сходен метод моделът повтаря и елементи за ролята на сър Ричард Еванс в делото против Ървинг, които към този момент са били опровергани.
Не единствено OpenAI: и други модели употребяват Grokipedia
GPT-5.2 не е индивидуален случай. По неофициални наблюдения и моделът Claude на Anthropic също е цитирал Grokipedia – по тематики от нефтодобива до шотландски бири.

От OpenAI разясняват пред The Guardian, че уеб търсенето на модела „ цели да употребява необятен набор от обществено налични източници и гледни точки “, като се ползват филтри за ограничение на връзки с висок риск от вреди. Компанията акцентира, че работи по стратегии за пречистване на нискокачествена информация и акции за въздействие.

За откривателите на дезинформацията казусът стига и на по-дълбоко равнище. Още предходната година специалисти по сигурността предизвестяват, че злонамерени мрежи – в това число структури за съветска агитация – основават солидни размери от наличие за да „ обучат “ AI моделите с неистини. Процесът е прочут като LLM grooming.

През юни сходни опасения бяха повдигнати и в Конгреса на Съединени американски щати, откакто Гугъл Gemini повтори позиции на китайското държавно управление по отношение на Синдзян и Covid-19.

Според изследователката на дезинформация Нина Янковиц фактът, че ChatGPT цитира Grokipedia, е обезпокоителен сигнал. По думите ѝ оценените от нея публикации разчитат на „ източници, които в най-хубавия случай са ненадеждни, а в най-лошия – умишлена дезинформация “.

Още по-голям проблем е, че когато огромен езиков модел цитира сходни източници, това покачва доверието към тях.

„ Хората си споделят: щом ChatGPT го цитира, значи е тествано “, отбелязва тя – и по този начин стигат до уеб сайтове, които другояче биха пренебрегнали.
Трудно е да премахнеш дезинформацията – даже когато е потвърдено подправена
Янковиц дава и персонален образец: неотдавна огромна медия разгласява фиктивен откъс, приписан на нея. След сигнал текстът е поправен, само че за известно време AI модели не престават да цитират подправеното изявление като достоверно.

„ Повечето хора няма да положат старания да стигнат до истината “, споделя тя пред The Guardian.

Отговорът, който xAI дава пред медията, е къс: „ Традиционните медии лъжат. “
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР