Изкуственият интелект ще затрудни защитата срещу фишинг атаки
Около 80% от случаите на неоторизиран достъп до компютри се случват посредством фишинг
(снимка: CC0 Public Domain)
Софтуерът с изкуствен интелект като известния бот ChatGPT на OpenAI ще направи доста по-трудно откриването на опити за фишинг и ще изисква от фирмите да внедрят нови киберзащити. Това предизвести неотдавна вицепрезидентът на Cisco – Джиту Пател , който управлява бизнес групата Security and Applications.
Днес към 80% от случаите на неоторизиран достъп до компютърни системи се случват посредством фишинг, когато киберпрестъпниците изпращат имейли или известия до хора с вярата да ги подмамят да кликнат върху злонамерена връзка. AI инструментите са в положение бързо да трансформират фишинг известията, като ги индивидуализират, което ще разреши на хакерите да привлекат повече жертви в своите мрежи, съгласно топ мениджъра на Cisco.
още по темата
„ Атаките ще станат доста по-индивидуални ”, сподели Пател по време на Международната конференция за осведомителна сигурност RSA, която се организира в края на април в Сан Франциско.
Досега фишинг имейлите бяха относително лесни за разкриване, защото не са ориентирани към съответен адресат. Често те съдържат правописни неточности и други знаци, които ги издават. Но новото потомство офанзиви, които ще употребяват AI принадлежности, ще бъдат доста по-трудни за различаване. Това ще усили риска от сривове в мрежата и опити за изнудване.
Джиту Пател обаче е уверен, че има решение на този проблем. То се състои от бързо анализиране на интернет трафика и идентифициране на модели, които демонстрират подозрителна или злонамерена активност. Възможностите на Cisco за разбор на потока от данни са налице.
„ Сигурността е игра с данни. Колкото повече данни имате, толкоз по-ефективно откриването на аномалии работи за вас ”, сподели вицепрезидентът на Cisco, представен от Блумбърг.
Разбира се, това надалеч не е първото предизвестие за рисковете, свързани с потреблението на AI принадлежности от хакерите. Наскоро VentureBeat беседва с някои от водещите международни анализатори на киберсигурността и те изброиха вероятните последствия от потреблението на генеративни AI системи от нападателите.
Според специалистите, системи като ChatGPT ще понижат входната преграда за киберпрестъпниците и ще улеснят основаването на безапелационни фишинг известия. Освен това генеративният AI ще изостри съществуващите закани и организациите ще се нуждаят от експерти по сигурността с знания в региона на изкуствения разсъдък.
Източник: technews.bg
КОМЕНТАРИ




