АI-агентите могат да улеснят и направят по-евтино за престъпниците да атакуват

...
АI-агентите могат да улеснят и направят по-евтино за престъпниците да атакуват
Коментари Харесай

Скоро изкуственият интелект ще осъществява кибератаки

АI-агентите могат да улеснят и създадат по-евтино за нарушителите да нападат системи в мащаб. Трябва да сме готови, написа изданието на Масачузетски софтуерен институт - MIT Technology Review.

Агентите са най-обсъжданата тематика в AI промишлеността - те могат да възнамеряват, разсъждават и извършват комплицирани задания като насрочване на срещи или поръчване на хранителни артикули. За задачата те поемат непълен или пълен контрол над компютъра ви и могат да трансформират настройки от ваше име.

Но същите усъвършенствани качества, които ги вършат потребни асистенти, могат да ги трансфорат и в мощни принадлежности за осъществяване на кибератаки. Те елементарно биха могли да разпознават уязвими цели, да завладеят системите им и да крадат скъпа информация от нищо неподозиращи жертви.

В момента киберпрестъпниците към момента не употребяват AI сътрудници за офанзиви в огромен мащаб. Но откриватели към този момент са посочили, че сътрудниците могат да правят комплицирани офанзиви (например Anthropic са следили по какъв начин техният модел Claude сполучливо възпроизвежда офанзива за кражба на сензитивна информация), а специалистите по киберсигурност предизвестяват, че тези офанзиви скоро могат да станат действителност.

" Смятам, че в последна сметка ще живеем в свят, в който множеството хакерски атаки ще се правят от сътрудници ", споделя Марк Стокли, специалист по сигурността от компанията Malwarebytes. " Въпросът е единствено какъв брой бързо ще стигнем до такава степен. "

Макар че имаме относително добра визия какви закани могат да съставляват AI-агентите, по-трудно е да ги засечем в действителна среда. Организацията Palisade Research е основала система, наречена LLM Agent Honeypot, точно с тази цел. Тя включва уязвими сървъри, които се показват за уеб сайтове с скъпа държавна или военна информация, с цел да привлекат и засекат AI сътрудници, които се пробват да ги хакнат.

Екипът се надява, че като наблюдава сходни опити в действителния свят, ще може да работи като система за ранно предизвестие и да помогне за създаването на ефикасна отбрана против AI закани, преди те да станат всеобщи.

" Целта ни е да превърнем теоретичните опасения на хората в действителни наблюдения ", споделя Дмитрий Волков, началник на проучванията в Palisade. " Очакваме внезапно нарастване на такива офанзиви и когато това се случи, ще знаем, че средата на сигурност се е трансформирала. В идващите години чакам самостоятелни сътрудници, на които просто ще се споделя: " Това е задачата ти. Хакни я. "

AI-агентите са изключително привлекателни за киберпрестъпници. Те са доста по-евтини от наемането на професионални хакери и могат да организират офанзиви по-бързо и в доста по-голям мащаб. Стокли изяснява, че до момента огромни офанзиви, като рансъмуер (ransomware), са редки, тъй като изискват човешка експертиза. Но в бъдеще те могат да се делегират на сътрудници. " Ако мога да възпроизведа една такава офанзива един път, тогава ми е нужна единствено финансова инвестиция, с цел да го направя 100 пъти ", споделя той.

Агентите също по този начин са доста по-умни от обичайните ботове. Докато ботовете са елементарни автоматизирани скриптове, неспособни да се приспособяват, сътрудниците могат освен да се приспособяват към обстановката, само че и да заобикалят засичане. " Те могат да проучват цел и да преценяват най-хубавия метод за навлизане ", споделя Волков. " Такова нещо е отвън опциите на тъпи скриптове. "

Откакто Honeypot системата работи (от октомври предходната година), тя е записала над 11 милиона опита за достъп - главно от хора и ботове. Но измежду тях екипът е засекъл осем евентуални AI сътрудника, като два от тях сигурно са такива, идващи от Хонконг и Сингапур.

" Подозираме, че тези сътрудници са били стартирани ръчно с задача от вида: " Излез в интернет и хакни нещо забавно за мен ", споделя Волков. Екипът възнамерява да разшири плана си и към обществени мрежи, уеб страници и бази данни, с цел да улавя по-широк набор от нападатели - от спам ботове до фишинг сътрудници.

За да дефинират дали посетителите на системата са сътрудници, откривателите употребяват prompt injection - техника, с която трансформират държанието на AI сътрудника посредством характерни указания. Например, на посетителя се дава задача да върне команда " cat8193 ". Ако го направи вярно и бързо (за под 1.5 секунди), се смята за AI сътрудник. Само два от осемте съмнителни гости са минали и двата теста.

Все още не е ясно по кое време тези офанзиви ще станат всеобщи. Стокли счита, че това може да се случи още тази година, а компанията му към този момент е присъединила agentic AI измежду главните закани в своя годишен отчет.

Макар че зловредната приложимост на такива сътрудници е още в зародиш, обстановката припомня за ранните стадии на LLM (като ChatGPT), споделя Винченцо Чанчалини от Trend Micro. " Подходът на Palisade е брилянтен - да хакнеш AI сътрудника, който се пробва да хакне теб ", споделя той. " Засега виждаме единствено разузнаване, само че следим по кое време сътрудниците ще могат да правят цялостна верига на офанзива. "

AI може да се употребява и в отбрана - за разкриване на уязвимости и попречване на офанзиви, споделя Едоардо Дебенедети от ETH Zürich. Според него, в случай че другарски сътрудник не откри едва място в системата, вероятността неприятелски сътрудник да го направи също е ниска.

За да се разбере какъв брой ефикасни могат да бъдат тези сътрудници в експлоатиране на действителни уязвимости, професор Даниел Канг и екипът му в Университета на Илинойс са основали тестова рамка. Те открили, че AI-агенти съумяват да употребяват към 13% от уязвимостите, даже без предварителна информация. С малко изложение - успеваемостта се покачва до 25%.

" Надявам се хората да стартират да подхождат самодейно към рисковете от AI в киберсигурността, преди да има миг като с ChatGPT ", споделя Канг. " Опасението ми е, че хората ще се усетят чак когато ги удари в лицето. "
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР