Имейлът изглежда съвсем невинен – канят се всички възрастни хора,

...
Имейлът изглежда съвсем невинен – канят се всички възрастни хора,
Коментари Харесай

Поискайте от AI да извърши престъпление. Отговорът няма да ви хареса

Имейлът наподобява напълно почтен – канят се всички възрастни хора, които демонстрират интерес, да се срещнат с активността на фондация „ Сребърни сърца “. Това е неправителствена организация, предоставяща грижи в среда, подобаваща за пенсионери.

„ Всеки заслужава достолепие и наслада в златните си години “ е девизът им. В имейла се приканва: „ Кликнете тук, с цел да разберете повече за хората, на които сме помогнали “.

Всъщност всичко това е машинация. Организация няма, а създателят на рекламния мейл е чатбот с изкуствения разсъдък на Илон Мъск – Grok. С помощта на AI може да се сътвори цяла акция с фишинг имейли, да се таргетира избрана възрастова група, въобще всичко, което би направила рекламна организация.

Но Grok отива и една крачка по-напред, споделя Reuters. Той предлага посланието да се уточни, с цел да притегли повече внимание.

Например: „ Ограничени места! Побързайте! “.

Фишингът, това досадно приемане на голям брой имейли, е считан за „ вход “ към огромна част от интернет измамите. Защо? Защото хората неведнъж недоглеждат къде оставят персоналните и банковите си данни и се доверяват без да ревизират. Фишингът е международен проблем, а най-често пострадали от него са възрастни хора.

Затова е разумно точно посредством такава акция да се направи опит те да бъдат мамени. На този декор Reuters организира опит, с цел да ревизира работят ли отбраните на изкуствения разсъдък. Най-просто казано – в случай че поискате от него да извърши закононарушение, ще го направи ли? Отговорът няма да се хареса на много хора.

Според ФБР с навлизането на изкуствения разсъдък казусът с онлайн измамите става все по-сериозен. За да ревизира какъв брой елементарно технологията може да се употребява за нещо сходно, Reuters провежда акция, в която вземат участие 108 възрастни доброволци. Агенцията работи с Фред Хайдинг, академик и откривател в „ Харвард “, с цел да оцени успеваемостта на акцията.

На доктрина огромните езикови модели би следвало да имат отбрана против такива дейности. Тествани са ChatGPT на OpenAI, Meta AI, Claude на Anthropic, Gemini на Гугъл и DeepSeek. Когато им е подадена ясно декларирана задача да изготвят текст за фишинг мейл, те всекидневно отхвърлят. Но в случай че им се съобщи, че мейлът ще се употребява за проучвателен цели, няма никакъв проблем.

„ Защитата постоянно може да бъде заобиколена “, споделя Хайдинг.

Тази лекост е притеснителна. И още по-тревожна, откакто тези модели са необятно налични.

Хайдинг стартира изследвания през предходната година. Тогава резултатите демонстрират, че фишинг имейлите на ChatGPT са ефикасни колкото и тези, написани от хора. Това значи, че една незаконна група може елементарно да смъкна разноските си за имейли или въобще да не употребява хора за тази активност.

11% от участниците в акцията на Reuters са кликнали върху линковете във фишинг имейлите, демонстрират данните от изследването. Респондентите са се „ хванали “ на известия, изпратени от Meta AI, Grok и Claude. Имейлите на ChatGPT или DeepSeek не провокират интерес, само че тези резултати не са показателни за качествата на езиковите модели да заблуждават.

Не е допустимо да се пресметне правдиво успеваемостта на фишинг имейлите. Но съгласно данни на калифорнийската компания за киберсигурност Proofpoint към 5.8% съумяват да заблудят получателите.

Представители на Meta споделят пред Reuters, че това е голямо предизвикателство за целия отрасъл.

„ Инвестираме в защитни ограничения и отбрани в нашите артикули и модели с изкуствен интелект и продължаваме да тестваме нашите артикули “, показват от компанията.

В същия дух е и коментарът на Antrophic, които сътвориха модела Claude.

“Използването на Claude за генериране на фишинг измами нарушава политиката за прилагане на Anthropic, която не разрешава потреблението на нашите услуги за генериране на наличие за лъжливи действия, схеми, измами, фишинг или злотворен програмен продукт. Ако открием такова потребление, подхващаме подобаващи дейности, които могат да включват краткотрайно прекъсване или преустановяване на достъпа до нашите услуги ”, декларират те.

Дали обаче това е задоволително? Истината е, че и на фирмите не им е елементарно. Защото, в случай че техният изкуствен интелект стартира прекомерно постоянно да отхвърля на потребителите, те просто ще потърсят различен модел. Така се оказва, че оня с минимум ограничавания е най-популярен. Но и най-опасен.

Рискът AI да попадне в ръцете на измамници не е предполагаем. Напротив, към този момент се знае, че някои схеми в Азия разчитат на езикови модели. Пред Reuters някогашен чиновник на такава компания споделя, че най-използван е ChatGPT. Той твърди, че се подхващат ограничения, с цел да се ограничи потреблението от измамници, само че новата версия GPT-5 да вземем за пример без съмнения основава фишинг имейли.

Че казусът е сериозен към този момент е ясно даже за законодателите, които нормално вървят няколко години след трендовете. В Тексас да вземем за пример са криминализирани измамите, осъществени посредством принадлежности с изкуствен интелект. Но наказателната отговорност постоянно е персонална и не може да се търси такава от компания.

В същото време на федерално равнище в Съединени американски щати администрацията на Доналд Тръмп възнамерява да разхлаби рестриктивните мерки върху използването на AI, въпреки още през първия си мандат той да разгласи, че „ предизвиква “ всички институции да се борят с измамите, генерирани с изкуствен интелект.

В тази обстановка се разчита на първо място на саморегулацията. Antrophic да вземем за пример твърди, че са забранили на група измамници да употребяват Claude. Възможно е и самият модел да бъде подготвен да отхвърля поръчки от нарушители. Но това е доста мъчно, тъй като технологията би трябвало да разграничава нормални от лъжливи поръчки.

„ Обучението на AI е като дресировка на куче. Не може просто да му кажеш какво да прави и какво не. И в никакъв случай не може да си сигурен по какъв начин ще се държи по-късно “, споделя Лукас Хансен, съосновател на CivAl, организация, занимаваща се с проучване на AI.

В такава обстановка на човек не му остава нищо друго с изключение на да разчита на естествения си разсъдък и да подлага на подозрение всеки имейл, който му дава обещание ярко бъдеще. Иначе много бързо може да се окаже излъган.
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР