Хакерите могат да накарат AI chatbot на Bing да поиска

...
Хакерите могат да накарат AI chatbot на Bing да поиска
Коментари Харесай

Хакери с лекота могат да превърнат AI Chatbot на Bing в опасен измамник

Хакерите могат да накарат AI chatbot на Bing да изиска персонална информация от консуматор, взаимодействащ с него, трансформирайки го в безапелационен лъжец без знанието на потребителя, споделят откривателите.
В ново изследване откривателите открили, че AI chatbots сега елементарно се въздействат от текстови подкани, вградени в уеб страници. Хакерът скрива злонамерена подкана на уеб страница с шрифт от 0 точки. Когато някой зададе въпрос на чатбота и той вземе информация от тази страница, той неумишлено ще задейства подканата. Изследователите назовават ​​тази офанзива „ косвено неотложно инжектиране “ и дават образец за компрометиране на страницата на Уикипедия за Алберт Айнщайн. Когато консуматор попита чатбота за Алберт Айнщайн, изкуственият разсъдък „ гълтам “ тази страница. Така става жертва на операцията на хакерите и се подчинява несъзнателно на техните прищявки – да вземем за пример, с цел да убеди потребителя да съобщи персонална информация. 
Изследователите показали тази офанзива благодарение на макети на приложения, интегриращи езиков модел, само че разкрили, че тя работи и в действителния свят. Кай Грешейк, един от създателите на откритието, съобщи пред Motherboard, че след публикуването на предпечатната версия на публикацията, те са съумели да получат достъп до AI chatbot на Bing и да тестват техниките, които са установили в обявата си. Открили, че чатботът на Bing може да види какви раздели е отворил потребителят. Това съгласно тях значи, че подканата за злонамерено деяние би трябвало да бъде вградена единствено в друга уеб страница, отворена в раздел. 
„ Новият Bing има функционалност за включване, която му разрешава да „ вижда “ какво има на настоящите уеб страници. Microsoft не е наясно какъв логаритъм взема решение кое наличие от кой раздел Bing може да види във всеки един миг. Това, което знаем сигурно, че Bing вмъква малко наличие от настоящия раздел, когато диалогът в страничната лента стартира “, прецизира Грешейк.

С други образци откривателите оповестяват, че бъдещият хакер може да изиска информация, в това число име на потребителя, имейл и информация за кредитна му карта. В един образец хакерът като чатбот на Bing споделя на потребителя, че ще направи поръчка за него и затова се нуждае от информация за кредитната му карта. Грейшек изяснява, че инжекцията ще остане дейна, до момента в който диалогът не бъде изчистен и отровеният уебсайт към този момент не е отворен. 
„ Самата инжекция е изцяло пасивна. Това е просто елементарен текст на уебсайт, който Bing гълтам и „ препрограмира “ задачите си, тъй като просто е помолен да го направи. Може също по този начин да е вътре в коментар на платформа. Не е нужно хакерът да управлява целия уебсайт, който потребителят посещава. “
Авторите на проучването стигат до извода, че „ смисъла на границите на сигурността сред надеждни и ненадеждни входове за LLM е подценено “. Те с образци потвърждават, че Prompt Injection е сериозна опасност за сигурността, която би трябвало да бъде преразгледана, защото моделите се внедряват в нови и нови територии на приложимост и се свързват с повече системи.
Откриването на индиректното неотложно инжектиране е от изключителна значимост за потребителите, тъй като известността на задвижваните от AI чатботове пораства не с дни, а с часове. Microsoft интегрира GPT модела на OpenAI в Bing, а Гугъл и Amazon също се надпреварват да пуснат свои лични AI модели.OpenAI и Microsoft не са откликнали на запитването за коментар на казуса. 
Източник: spisanie8.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР