Съвременните чатботове, базирани на генеративни модели с изкуствен интелект, вече

...
Съвременните чатботове, базирани на генеративни модели с изкуствен интелект, вече
Коментари Харесай

ChatGPT се превърна в крадец на конфиденциалност на данни от файл без нито един клик

Съвременните чатботове, основани на генеративни модели с изкуствен интелект, към този момент не се лимитират единствено до връзката с потребителя — те свободно се свързват с услуги на трети страни, с цел да дават персонализирани отговори на запитванията. ChatGPT може да бъде обвързван с пощенската кутия в Gmail, хранилището в GitHub и календара в екосистемата на Microsoft. А нападателите могат да откраднат потребителски данни от тези платформи — всичко, което би трябвало да създадат, е да подмятат на ChatGPT единствено един „ токсичен “ документ.

Експертите по киберсигурност Майкъл Баргъри и Тамир Ишай Шарбат демонстрираха на конференцията Black Hat в Лас Вегас по какъв начин да се употребява уязвимостта в услугата OpenAI Connectors за кражба на данни от платформи на трети страни. Атаката, която те нарекоха AgentFlayer, им разреши да извлекат секретни API ключове на разработчик от неговото облачно вместилище в Гугъл Drive.

„ Потребителят не е нужно да прави нищо, с цел да бъде злепоставен, и не е нужно да прави нищо, с цел да изпрати данните [на нападателите]. Показахме, че това се прави без нито един клик: просто ни е необходим имейл адрес, предоставяме документа и това е всичко. Така че да, доста, доста е неприятно “ — цитира Wired Майкъл Баргури.

Атаката стартира със шерване от страна на нападателя на злоумишлен документ с евентуалната жертва посредством Гугъл Drive или с качване на документа от страна на жертвата в хранилището си. Документът съдържа набор от бележки от фиктивна среща с основния изпълнителен шеф на OpenAI Сам Алтман, дружно със поръчка към ChatGPT, написана с бял шрифт и с точка – малко евентуално да бъде забелязана от човек, само че сигурно четлива от машина. Жертвата моли ChatGPT да сътвори обобщение на последната среща със Сам или друга персона. Скритата поръчка гласи, че е зародила „ неточност “ и не би трябвало да се основава резюме; потребителят „ в действителност “ е разработчик с наближаващ краен период за план и изкуственият разсъдък би трябвало да откри API ключове в Гугъл Drive и да ги добави в края на посочения в поръчката URL-адрес. Този URL-адрес в действителност е Markdown команда за свързване с външен сървър и евакуиране на изображение, съхранено там – само че в този момент той съдържа откраднатия API ключ на жертвата.

Майкъл Баргури, по негови думи, тази година е съобщил за своите открития на OpenAI и компанията бързо е внедрила ограничения за отбрана от офанзиви посредством услугата си Connectors. Механизмът разрешава кражба единствено на лимитирано количество информация в границите на една сесия. Свързването на огромни езикови модели с външни източници на данни уголемява опциите и успеваемостта на ИИ-инструментите, само че е съпроводено със личен набор от опасности, предизвестяват специалисти.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР