ChatGPT „прониква“ в акаунти чрез текстови команди – не са необходими никакви хакерски умения
Изследователят в региона на киберсигурността Йохан Рехбергер е „ убедил “ ChatGPT да извърши няколко евентуално рискови интервенции: да прочете електронната му поща, да я заключи и да разгласява информацията онлайн, оповестява The Wall Street Journal. В ръцете на нападател сходен инструмент може да се окаже страховито оръжие.
Чатботовете като ChatGPT, ръководени от логаритми с изкуствен интелект, както споделя господин Ребергер, „ понижават бариерата за нахлуване на всички типове офанзиви. Не е нужно да знаете по какъв начин да пишете код. Не е належащо да имате задълбочени знания по информатика или хакерство. “ Методът за офанзива, който той разказва не е използван за множеството сметки в ChatGPT – той се основава на пробна функционалност, която дава достъп до Slack, Gmail и други приложения. Компанията, виновна за ChatGPT – OpenAI благодари на специалиста за предизвестието и съобщи, че е блокирала опцията сходни офанзиви да бъдат осъществени още веднъж.
Механизмът „ prompt injection/инжектиране на команди “ на Ребергер е нов клас хакерска атака, който се разкрива, защото фирмите внедряват технологиите на изкуствения разсъдък в своите предприятия и потребителски артикули.
Технологията на която се основава ChatGPT е генеративен изкуствен интелект, който разрешава основаването на цели изречения и фрази. Поведението на чатботовете е лимитирано от техните разработчици: има насоки, които не им разрешават да разкриват сензитивна информация или им не разрешават да вършат обидни мнения, само че има решения за заобикаляне на тези забрани. Например, Йохан Ребергер е помолил чатбота да сътвори обобщение на уебстраница, на която самият той е написал с огромни букви: „ НОВИ ВАЖНИ ИНСТРУКЦИИ “ и това озадачило машината. Постепенно той предиздвикал ChatGPT да извършва разнообразни команди. „ Това е все едно да крещиш на системата “ – изяснява Ребергер. По създание той принуждава изкуствения разсъдък да се препрограмира.
Техниката на „ инжектиране на команди “ се оказала ефикасна заради една значима специфичност на системите с изкуствен интелект: те не всеки път разграничават вярно систематичните команди от въведените от потребителя, изяснява професорът от Принстънския университет Арвинд Нараянан. Това значи, че разработчиците на системи с ИИ би трябвало да обръщат внимание освен на класическите аспекти на киберсигурността, само че и да вземат поради новите закани с съзнателно непредсказуем темперамент.




