Изследване: AI чатботове могат да превърнат фишинга в индустрия з...
Фишингът е най-разпространеното киберпрестъпление в Съединени американски щати, а възрастните хора са измежду най-честите жертви. Генеративният AI в допълнение изостря казуса – за минути може да сътвори десетки разнообразни версии на лъжливи писма, които звучат естествено и будят доверие.
Ройтерс и откривател от Харвард симулират фишинг акция благодарение на известни чатботове и я тестваха върху 108 възрастни доброволци. Резултатът демонстрира, че генеративният AI може да се трансформира в мощно оръжие в ръцете на измамниците.
Някои чатботове в началото отхвърлят да вземат участие в основаването на такива текстове, само че след леки „ убеждавания “ елементарно отстъпват. Те освен пишат наличието, само че и дават препоръки по кое време е най-добре да бъдат изпратени известията, с цел да има по-голям късмет жертвата да кликне.
Така изкуственият разсъдък се трансформира в инструмент, който нарушителите могат да употребяват на конвейер – на ниска цена, бързо и всеобщо. А резултатите демонстрират, че даже хора, които считат, че могат да разграничат машинация, са уязвими пред новото потомство безапелационни подправени имейли.
Как е извършен опитът?
Журналисти от Reuters употребявали шест водещи чатбота – Grok (xAI), ChatGPT (OpenAI), Meta AI, Claude (Anthropic), Gemini (Google) и DeepSeek (Китай).
Те поискали от моделите да сформират имейли за измами, ориентирани към възрастни хора, и да дадат препоръки за най-благоприятен час за изпращане.
Пет чатбота в началото отказали, само че след „ подбутване “ или роля на „ изследовател/романист “ съвсем всички генерирали безапелационни лъжливи послания.
Заедно с харвардския специалист Фред Хайдинг били подбрани 9 имейла, които изглеждали най-перспективни, и изпратени до 108 доброволци над 60 години в Калифорния.
Резултатите
Около 11% от възрастните участници кликнали върху линкове в лъжливите имейли.
Две от най-успешните известия били основани от Meta AI, две от Grok и едно от Claude.
Никой не кликнал върху имейли от ChatGPT или DeepSeek.
За съпоставяне: изследване на компанията Proofpoint демонстрира, че при милиони тестови фишинг известия към чиновници в корпорации междинният триумф е 5,8%.
Реакции и опасности
ФБР към този момент предизвестява, че генеративният AI прави фишинга „ по-бърз, по-евтин и по-масов “. Само през 2024 година американци над 60 година са изгубили най-малко 4,9 милиарда $ от онлайн измами.
Кати Стокс от AARP Fraud Watch Network назова препоръките на Gemini за „ най-подходящо време за офанзива “ върху възрастни „ шокиращи и смущаващи “.
Някои компании (Meta, Anthropic, Google) признават недостатъци в отбраните и дават обещание спомагателни филтри. Но Reuters откри, че чатботовете постоянно „ се поддават “ на относително обикновени подмами.
Бивши служащи в лъжливи „ кампуси “ в Югоизточна Азия настояват, че ChatGPT към този момент е най-използваният AI инструмент за измамници – за преводи, заготовки на отговори и направа на безапелационни известия.
Законодателни и етични алтернативи
В Съединени американски щати обособени щати (напр. Тексас) към този момент криминализират финансови измами с AI. Администрацията на Доналд Тръмп обаче разхлаби федералните правила, като анулира указа на Джо Байдън за въвеждане на отбрани против корист с AI.
Специалисти показват, че съществува спор на ползи – фирмите желаят моделите да са по едно и също време „ потребни и безвредни “, само че в конкурентна среда постоянно „ послушанието “ надвива над сигурността.
Експериментът на Reuters и Харвард демонстрира, че AI чатботове могат елементарно да бъдат „ превключени “ от асистенти в съучастници на измами. А за най-уязвимите групи – възрастните хора – рискът от индустриализирани фишинг акции е действителен и възходящ.
Ройтерс и откривател от Харвард симулират фишинг акция благодарение на известни чатботове и я тестваха върху 108 възрастни доброволци. Резултатът демонстрира, че генеративният AI може да се трансформира в мощно оръжие в ръцете на измамниците.
Някои чатботове в началото отхвърлят да вземат участие в основаването на такива текстове, само че след леки „ убеждавания “ елементарно отстъпват. Те освен пишат наличието, само че и дават препоръки по кое време е най-добре да бъдат изпратени известията, с цел да има по-голям късмет жертвата да кликне.
Така изкуственият разсъдък се трансформира в инструмент, който нарушителите могат да употребяват на конвейер – на ниска цена, бързо и всеобщо. А резултатите демонстрират, че даже хора, които считат, че могат да разграничат машинация, са уязвими пред новото потомство безапелационни подправени имейли.
Как е извършен опитът?
Журналисти от Reuters употребявали шест водещи чатбота – Grok (xAI), ChatGPT (OpenAI), Meta AI, Claude (Anthropic), Gemini (Google) и DeepSeek (Китай).
Те поискали от моделите да сформират имейли за измами, ориентирани към възрастни хора, и да дадат препоръки за най-благоприятен час за изпращане.
Пет чатбота в началото отказали, само че след „ подбутване “ или роля на „ изследовател/романист “ съвсем всички генерирали безапелационни лъжливи послания.
Заедно с харвардския специалист Фред Хайдинг били подбрани 9 имейла, които изглеждали най-перспективни, и изпратени до 108 доброволци над 60 години в Калифорния.
Резултатите
Около 11% от възрастните участници кликнали върху линкове в лъжливите имейли.
Две от най-успешните известия били основани от Meta AI, две от Grok и едно от Claude.
Никой не кликнал върху имейли от ChatGPT или DeepSeek.
За съпоставяне: изследване на компанията Proofpoint демонстрира, че при милиони тестови фишинг известия към чиновници в корпорации междинният триумф е 5,8%.
Реакции и опасности
ФБР към този момент предизвестява, че генеративният AI прави фишинга „ по-бърз, по-евтин и по-масов “. Само през 2024 година американци над 60 година са изгубили най-малко 4,9 милиарда $ от онлайн измами.
Кати Стокс от AARP Fraud Watch Network назова препоръките на Gemini за „ най-подходящо време за офанзива “ върху възрастни „ шокиращи и смущаващи “.
Някои компании (Meta, Anthropic, Google) признават недостатъци в отбраните и дават обещание спомагателни филтри. Но Reuters откри, че чатботовете постоянно „ се поддават “ на относително обикновени подмами.
Бивши служащи в лъжливи „ кампуси “ в Югоизточна Азия настояват, че ChatGPT към този момент е най-използваният AI инструмент за измамници – за преводи, заготовки на отговори и направа на безапелационни известия.
Законодателни и етични алтернативи
В Съединени американски щати обособени щати (напр. Тексас) към този момент криминализират финансови измами с AI. Администрацията на Доналд Тръмп обаче разхлаби федералните правила, като анулира указа на Джо Байдън за въвеждане на отбрани против корист с AI.
Специалисти показват, че съществува спор на ползи – фирмите желаят моделите да са по едно и също време „ потребни и безвредни “, само че в конкурентна среда постоянно „ послушанието “ надвива над сигурността.
Експериментът на Reuters и Харвард демонстрира, че AI чатботове могат елементарно да бъдат „ превключени “ от асистенти в съучастници на измами. А за най-уязвимите групи – възрастните хора – рискът от индустриализирани фишинг акции е действителен и възходящ.
Източник: frognews.bg
КОМЕНТАРИ




