Anthropic заяви, че е открила и блокирала хакери, опитващи се

...
Anthropic заяви, че е открила и блокирала хакери, опитващи се
Коментари Харесай

Anthropic блокира опит на хакери да пробият нейния Claude AI

Anthropic съобщи, че е разкрила и блокирала хакери, опитващи се да злоупотребят със системата Claude AI за писане на фишинг имейли, основаване на злоумишлен код и заобикаляне на филтри за сигурност.

 

Констатациите на компанията, оповестени в отчет, акцентират възходящите опасения, че инструментите с изкуствен интелект се употребяват все по-често в киберпрестъпленията. Anthropic приканват софтуерните компании и регулаторните органи да засилят защитните ограничения с разпространяването на AI технологията.

 

В отчета на Anthropic се споделя, че вътрешните системи са спрели офанзивите. Компанията споделя по какъв начин хакерите са се пробвали да употребяват Claude за основаване на нездравословно наличие, с цел да помогне на други компании от сектора да схванат рисковете.

 

В отчета се показват опити за потребление на Claude за правене на персонализирани фишинг имейли, писане или коригиране на фрагменти от злоумишлен код и заобикаляне на защитните ограничения посредством многократни подкани. В него са разказани и напъните за основаване на сюжети за акции за въздействие посредством генериране на безапелационни изявления в огромен мащаб и подкрепяне на нискоквалифицирани хакери с подробни указания.

 

Компанията не разгласява механически знаци като IP адреси, само че съобщи, че е забранила обвързваните с офанзивата сметки и е стегнала филтрите си след разкриване на интензивността.

 

Експерти споделят, че нарушителите все по-често се обръщат към изкуствен интелект, с цел да създадат измамите по-убедителни и да ускорят опитите за хакерство. Тези принадлежности могат да оказват помощ за писането на реалистични фишинг известия, да автоматизират елементи от създаването на злотворен програмен продукт и даже евентуално да спомагат за планирането на офанзиви.

 

Изследователите по сигурност предизвестяват, че с повишаването на мощността на моделите с изкуствен интелект, рискът от корист ще нараства, в случай че фирмите и държавните управления не работят бързо.

 

Anthropic съобщи, че следва строги практики за сигурност, в това число постоянни проби и външни прегледи, и възнамерява да продължи да разгласява отчети, когато открие съществени закани.
Източник: frognews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР