OpenAI обясни как налага мерки за предотвратяване разпространението на опасно

...
OpenAI обясни как налага мерки за предотвратяване разпространението на опасно
Коментари Харесай

OpenAI обяви, че ще потиска информационните кампании с помощта на нейните ИИ-технологии

OpenAI изясни по какъв начин постанова ограничения за попречване разпространяването на рисково наличие благодарение на AI. Компанията е спряла няколко секрети интервенции за въздействие, които се пробват да манипулират публичното мнение или да повлияят на политиката.

През последните три месеца OpenAI спря пет секрети групи, които се пробваха да употребяват моделите на компанията за своите интервенции. По време на акциите бяха употребявани AI инструментите за основаване на къси мнения и публикации на разнообразни езици, сформиране на имена и биографии за обществените мрежи.

В резултат на това е спряна активност като:

Bad Grammar, за която се твърди, че е обвързвана с Руската федерация. Кампанията е стартирала в Telegram и е ориентирана към жителите на Украйна, Молдова, балтийските страни и Съединени американски щати. Неговите създатели са употребявали AI за премахване на неточности в кода за пускане на ботовете в Telegram и основаване на къси политически мнения на съветски и английски; Doppelganger, също обвързван с Руската федерация. Кампанията употребява AI принадлежности за основаване на мнения на британски, френски, немски, италиански и полски, които са били оповестени в X и 9GAG. AI също е бил употребен за превод и редактиране на публикации на британски и френски език, генериране на заглавия и пренаписване на новинарски публикации за издание в обществените мрежи; Spamouflage, обвързван с Китай. Кампанията е употребила AI за проучване на публичната интензивност в обществените мрежи, генериране на текстове на китайски, британски, японски и корейски и публикуването им в платформите X, Medium и Blogspot. Накрая, моделите са били употребявани за генериране на база данни и код за ръководство на уебсайтове; Международен съюз на виртуалните медии (IUVM), обвързван с Иран. Моделите са били употребявани за основаване и превод на дълги публикации, заглавия и тагове на уеб страници, които по-късно са били оповестени в iuvmpress[.]co; STOIC, обвързван с Израел. Кампанията Zero Zeno употребява модели за основаване на публикации и мнения, които по-късно са били оповестени на няколко платформи и по-специално Instagram, Фейсбук, X и уеб страници, свързани с интервенцията.

Използвайки скалата за пробив на Брукинг, откривателите на OpenAI са оценили успеваемостта на акциите. Отбелязва се, че нито една от тях не е получила оценка по-висока от 2 точки по 6-степенната канара.

Въз основа на изследвания компанията е забелязала следните трендове в потреблението на AI:

генериране на съдържание; смесване на генерирано и ръкописно съдържание; имитация на взаимоотношение посредством генериране на мнения към изявления и статии; увеличаване на продуктивността посредством обобщаване на изявления в обществени медии или код за премахване на неточности.

Във връзка с откритите акции, OpenAI предлага и ползва редица ограничения, които могат да оказват помощ за противодействието им:

защитителен дизайн. Системите за сигурност на компанията ще бъдат усъвършенствани, с цел да се подсигурява, че моделите отхвърлят да генерират текст или изображения, свързани с чувствителни теми; разследвания благодарение на неестествен интелект; публикуване на наличие на разнообразни платформи, в това число X, Telegram, Medium, Blogspot и дребни форуми; съвместно потребление на изкуствен интелект. OpenAI показа индикаторите за заплаха с сътрудници по бранша и също употребява години на разбор с отворен код от проучвателен общности; отчитайки човешкия фактор, компанията има вяра, че е значимо хората да се образоват по отношение на новите принадлежности, които злите хора употребяват.

OpenAI по-рано образува нов комитет по сигурността и сигурността, който ще оказва помощ при вземането на основни решения по планове. Той ще включва основния изпълнителен шеф на компанията Сам Алтман, както и членовете на борда на шефовете Брет Тейлър, Адам Д’Анджело и Никол Селигман. Главният академик на Open AI, Якуб Пачоцки и ръководителят по сигурността Мат Найт, също ще вземат участие в работата. Комисията възнамерява да притегли като консултанти към момента неназовани външни специалисти по сигурността.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР