Meta Platforms Inc. разкриха тази седмица Purple Llama – инициатива,

...
Meta Platforms Inc. разкриха тази седмица Purple Llama – инициатива,
Коментари Харесай

Meta разкри появата на Purple Llama

Meta Platforms Inc. разкриха тази седмица Purple Llama – самодейност, която цели да разпространява виновната разработка на AI системи. От компанията-собственик на обществената мрежа Фейсбук обявиха, че с времето ще направи налични всички принадлежности и правила, от които се нуждаят експертите, с цел да основават открити генеративни AI модели по един безвреден и виновен метод.

В обява в един от блоговете на компанията, Meta привеждат това, че сега следим напредък на разнообразни приложения на основата на изкуствения разсъдък, като генератори на изображения, конверсивните чатботове и принадлежности за обобщаване на документи. Много от тези приложения през днешния ден се задвижват от Llama – общ брой от открити огромни езикови модели. Именно присъединяване на Llama във всички тях задължава компанията да поеме отговорността и да ускори взаимоотношението сред другите страни в процеса, което е належащо за основаването на доверие в нововъведенията от този вид. „ Хората, създаващи AI системите не могат да се оправят с провокациите преди изкуствения разсъдък изолирано от другите. Това се явява повода да желаеме да създадем идентични правила за всички тук и създадем обединен център за намерено доверие и сигурност “, пишат Meta.

Една от първите начинания, свързани със старта на Purple Llama е стартирането на набор от безвъзмездни и открити оценъчни тестови правила на киберсигурността на огромните езикови модели с името CyberSec Eval. Представя се също по този начин и Llama Guard – предпазен класификатор за входно/изходно пречистване, който е особено усъвършенстван за елементарно внедряване и потребление. CyberSec Eval ще дава метрични индикатори за оценката на риска, свързани с съответни огромни езикови модели и засягат постоянно срещни проблеми в процеса по основаването на такива модели, като да вземем за пример честотата на предложение на оферти за потреблението на нерешителен код. Тези и други характерности на CyberSec Eval са основани благодарение на водещи специалисти по сигурност и се базират на към този момент открити и тествани правила и стандарти от киберзащитната промишленост. Една от главните цели тук е предотвратяването на опцията киберпрестъпници да употребяват огромните езикови модели за осъществяване на офанзиви посредством тях, показват Meta.

Самият Llama Guard съставлява авансово подготвен модел. който е планиран тъй че да не разрешава на AI моделите да генерират евентуално рискови крайни резултати. Той е бил подготвен посредством примес от обществено налични набори от данни, способни да засекат постоянно срещани видове рисково или принудително наличие. По този метод, Llama Guard може да записва както рискови входни данни, по този начин и зловредно и рисково изходно наличие, създавано от генеративните AI модели и да поречи на обработката им. Това, акцентират от Meta, ще помогне на разработчиците да пригодят своите модели по подобен метод, че да се сведе до най-малко риска от генериране на наличие, което може да докара до несъгласия, ужас или засегнатост.

По отношение на именуването на самия план (в превод от англ.: „ Лилава лама “), то то е обвързвано с добре известна терминология от киберзащитната промишленост, комбинирайки „ алените екипи “ – общ брой от експерти по сигурност, които тестват сигурността на дадена система, като я нападат и „ сините екипи “, които се концентрират над отбраната и отговора на тези офанзиви.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР