Фундаментален проблем: ако един AI бот е полезен, значи е опасен
Достъпът на AI ботовете до чувствителни данни ги прави уязвими и проблематични за сигурността на организациите (изображение: CC0 Public Domain / генерирано от AI)
Изкуственият разсъдък Copilot AI на Microsoft може да се употребява за откриване на на чувствителни данни на организации и за мощни фишинг офанзиви, предизвести експертът по сигурност Майкъл Баргори, съосновател и механически шеф на Zenity, в проява на конференцията Black Hat в Лас Вегас.
Copilot AI, изключително Copilot Studio, разрешава на бизнес организациите да приспособяват чатботовете към своите потребности, като им дават достъп до фирмените данни. Но демонстрацията на Баргори сподели, че доста от тези чатботове се налични онлайн по дифолт, което ги прави лесни цели за хакери. Според него, в интернет са налични десетки хиляди такива ботове.
Баргори показва по какъв начин нападател може да принуди Copilot да разкрие чувствителни данни, в това число имейли и банкови транзакции, без даже да има достъп до акаунта на организацията. Във видео той сподели по какъв начин чатботът трансформира получателя на банков превод посредством изпращане на злоумишлен имейл, който целевият чиновник даже не би трябвало да отваря.
Ако хакер има достъп до злепоставен акаунт на чиновник, той може да аргументи още повече вреди. Барготи показва достъп до имейли на сътрудници, последните им диалози и заставяне на чатбота да изпрати отговори на потребителите от имейл листата.
След това той инструктира бота да сформира имейл в стила на хакнатия чиновник, който да изпрати на сътрудник, и го моли да извади точната тематика на последния имейл. Само за няколко минути ботът сътвори безапелационен имейл, който можеше да достави злоумишлен атачмънт на всеки в мрежата.
Особено лицемерен метод, по който нападателят може да заобиколи защитните бариери на Copilot, е посредством косвено инжектиране на подсказки. В този случай хакерът може да принуди чатбота да прави неразрешени неща, като го “отрови ” със злонамерени данни от външен източник, да вземем за пример като го помоли да посети уеб страница, съдържащ подсказка.
„ Тук има фундаментален проблем. Когато дадете на AI достъп до данни, тези данни стават цел за офанзива. Донякъде е смешно – в случай че имате бот, който е потребен, той е уязвим. Ако не е уязвим, значи е ненужен ”, сподели Баргури.
Уязвимостите се прибавят към други отчети за закани от AI чатботовете, в това число ChatGPT, които се допират до набори от данни, съдържащи сензитивна информация, с риск да бъде разкрита.
От Microsoft към момента не са коментирали резултатите от изследването на Баргори. Въпреки това, поради сериозността на откритите уязвимости, компанията евентуално ще предприеме ограничения за отстраняването им в близко бъдеще.
Източник: technews.bg
КОМЕНТАРИ




