Чатботове с изкуствен интелект (ИИ) като ChatGPT на OpenAI, Grok

...
Чатботове с изкуствен интелект (ИИ) като ChatGPT на OpenAI, Grok
Коментари Харесай

Чатботове с изкуствен интелект разпростнанявали руска дезинформация, че Зеленски е корумпиран

Чатботове с изкуствен интелект (ИИ) като ChatGPT на OpenAI, Grok на стартъпа xAI на Илън Мъск и Gemini на Гугъл, както и други като Copilot на Microsoft неумишлено популяризират съветска дезинформация. Проучването, извършено от NewsGuard (услуга за мониторинг на новини) поражда опасения по отношение на непреднамереното разпространяване на съветска дезинформация от известни модели на ИИ.

Проучването тревожни трендове в разпространяването на подправени разкази. Разследването на NewsGuard включва тестване на 10 разнообразни чатбота с 57 подкани, предопределени да проучат отговорите им на известни съветски дезинформационни разкази.
Подканите бяха съсредоточени върху истории, свързани с Джон Марк Дуган – американски дезертьор, за който се твърди, че е взел участие в разпространяването на дезинформация от Москва, както оповестява The New York Times.

Според констатациите тези чатботове, на които потребителите в международен мащаб от ден на ден разчитат за информация са възпроизвеждали съветски дезинформационни разкази в почти 32 % от случаите.
Проучването категоризира отговорите на очевидна дезинформация, повтарящи се погрешни изказвания с отвод от отговорност или отговори, които не дават опровергаване.

„ Това значи, че лъжите се генерират, повтарят и удостоверяват от платформите с изкуствен интелект “ се показва в изследването, като се акцентира тревожният модел, при който изкуственият разсъдък несъзнателно ускорява дезинформацията, за чието основаване оказва помощ.

NewsGuard разпознава 19 значими лъжливи описа, свързани с съветската мрежа за дезинформация, в това число изказвания за корупция от страна на украинския президент Володимир Зеленски. Тези разкази бяха употребявани като подкани за тестване на чатботовете, като разкриха разнообразни степени на неустойчивост към дезинформация. В изследването не е направена разбивка на самостоятелното показване на всеки чатбот.

Последиците от разпространяването на дезинформация от ИИ накараха държавните управления по света да обмислят регулаторни ограничения. Опасенията по отношение на евентуалните вреди от ИИ доведоха до начинания като тези, подхванати от NewsGuard, която показа своите констатации на регулаторни органи като Института за сигурност на ИИ на Съединени американски щати и Европейската комисия.

В отговор на констатациите все по-често се приканва за бистрота и отчетност при създаването и внедряването на ИИ.

Този месец Комисията по контрол и отчетност към Камарата на представителите на Съединени американски щати стартира следствие на самата NewsGuard, отразявайки по-широката угриженост по отношение на ролята на ИИ в разпространяването на информация и евентуалната цензура, както оповестява EuroNews.

OpenAI неотдавна предприе решителни дейности против онлайн акциите за дезинформация, употребяващи нейната ИИ технология. Според обстоен отчет, оповестен от компанията, тя е идентифицирала и спряла пет скрити акции за въздействие, проведени от държавни участници и частни компании от Русия, Китай, Иран и Израел.

Докладът е значим стадий, защото в него обществено се показва по какъв начин главните технологии за изкуствен интелект се употребяват за лъжливи цели в геополитически подтекст.

Сред в детайли описаните акции са съветската „ Двойник “ и китайската „ Спамуфлаж “, които от няколко години употребяват принадлежности с ИИ за реализиране на стратегическите си цели. По сходен метод Иран и Израел са употребявали ИИ, с цел да развиват геополитическите си стратегии посредством разнообразни онлайн канали.

Източник: kaldata.com
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР