AI, който може да управлява компютър без потребител, беше подмамен да изтегли и стартира вирус
През октомври Anthropic показа моделът на изкуствен интелект Claude Computer Use, който разрешава на невронната мрежа Claude независимо да ръководи компютър въз основа на потребителски поръчки. Изследовател в региона на сигурността на AI е намерил метод да трансформира тази функционалност в злонамерена.
Експертът по киберсигурност Йохан Ренбергер разгласява отчет по отношение на това, по какъв начин е съумял да злоупотреби с функционалността за потребление на компютъра: по негово искане AI е изтеглил и стартирал злонамерено приложение, след което се е свързал със сървъра, контролиращ зловредния програмен продукт.
Трябва да се означи, че Claude Computer Use остава в бета-версия и компанията, която го е създала в лицето на Anthropic предизвести, че функционалността може да не работи по предопределение: „ Препоръчваме да вземете защитни ограничения, с цел да изолирате Claude от сензитивните данни и действия, с цел да избегнете опасности, свързани с инжектиране на поръчки “. Тези типове модели на офанзива против AI остават постоянно срещани.
Ренбергер назова експлойта си ZombAIs — с негова помощ специалистът принуди системата да зареди средата за дистанционно управление Sliver, която беше създадена с цел да се тества навлизане, само че киберпрестъпниците са я приспособили за своите потребности. Той също по този начин означи, че това не е единственият метод за потребление на AI за незаконни действия — да вземем за пример Claude може да се принуди да напише вирус от нулата и да го компилира, тъй като той може да напише код на C.
Установено е също, че китайският чатбот DeepSeek AI е уязвим към поръчките вид инжекционни офанзиви. А огромните езикови модели се оказаха способни да изведат код с ръководещите знаци ANSI за хакване на систематични терминали — този подтип офанзива беше наименуван Terminal DiLLMa.




