Измамници използват видеоклипове в социалните медии, за да клонират гласа ви: Как да се защитите?
Видеоклипове в обществените медии могат да бъдат употребявани от измамници, с цел да клонират гласовете ни благодарение на изкуствен интелект и по-късно да излъгват фамилията и приятелите ви за пари. Необходима е " проба " от единствено 3 секунди, настояват специалистите, които оферират и решение, написа .
Измамниците търсят видеоклипове, които са качени онлайн и се нуждаят единствено от няколко секунди аудио, с цел да възпроизведат метода, по който целевият човек приказва. След това се обаждат или изпращат гласови известия до другари и семейство с молба незабавно да изпратят пари.
Проучване, оповестено от цифровия заемодател Starling Bank, открива, че 28% от хората са били обект на машинация с клониране на глас с изкуствен интелект най-малко един път през последната година. Въпреки това, 46% от хората даже не са знаели за съществуването на този тип машинация, а 8% са споделили, че е евентуално да изпратят всяка поискана сума пари, даже в случай че считат, че позвъняването от техен обичан човек е необичайно.
Главеният специалист по осведомителна сигурност в Starling Bank Лиза Греъм споделя: " Хората постоянно разгласяват онлайн наличие, което съдържа записи на техния глас, без да осъзнават, че това ги прави по-уязвими за измамници ".
Какво да вършим
Експертите оферират на хората да измислят и употребяват " безвредна фраза " с близки другари и семейство, с цел да ревизират дали позвъняването е същинско.
" Измамниците се нуждаят единствено от три секунди тон, с цел да клонират гласа ви, само че ще отнеме единствено няколко минути със фамилията и приятелите ви, с цел да създадете сигурна фраза, с цел да им се противопоставите ", изяснява Греъм. " Затова е по-важно от всеки път хората да са наясно с тези типове измами, поддържани от измамници, както и по какъв начин да защитят себе си и своите близки от това да се трансфорат в жертва ", поучава експертът.
Британската организация за киберсигурност съобщи през януари, че изкуственият разсъдък прави все по-трудно разпознаването на фишинг известия, които подмамват потребителите да дадат пароли или персонални данни. Тези все по-сложни измами са съумели да заблудят даже огромни интернационалните компании.
През февруари полицията в Хонконг стартира следствие, откакто чиновник на неназована компания сподели, че е била излъгана да заплати 200 милиона хонконгски $ (20 милиона паунда) от парите на компанията си на измамници в надълбоко подправен видеоконферентен диалог, представяйки се за висши чиновници на компанията. Смята се, че нарушителите са изтеглили авансово видеозаписи и по-късно са употребявали изкуствен интелект, с цел да прибавят подправени гласове, които да бъдат употребявани във видеоконференцията. Лорд Хансън, министърът на вътрешните работи предизвести за големите опасности от AI. " Изкуственият разсъдък дава невероятни благоприятни условия за промишлеността, обществото и държавните управления, само че ние би трябвало да останем бдителни за заплахите, в това число измамите, основани на ИИ ", безапелационен е той.
Измамниците търсят видеоклипове, които са качени онлайн и се нуждаят единствено от няколко секунди аудио, с цел да възпроизведат метода, по който целевият човек приказва. След това се обаждат или изпращат гласови известия до другари и семейство с молба незабавно да изпратят пари.
Проучване, оповестено от цифровия заемодател Starling Bank, открива, че 28% от хората са били обект на машинация с клониране на глас с изкуствен интелект най-малко един път през последната година. Въпреки това, 46% от хората даже не са знаели за съществуването на този тип машинация, а 8% са споделили, че е евентуално да изпратят всяка поискана сума пари, даже в случай че считат, че позвъняването от техен обичан човек е необичайно.
Главеният специалист по осведомителна сигурност в Starling Bank Лиза Греъм споделя: " Хората постоянно разгласяват онлайн наличие, което съдържа записи на техния глас, без да осъзнават, че това ги прави по-уязвими за измамници ".
Какво да вършим
Експертите оферират на хората да измислят и употребяват " безвредна фраза " с близки другари и семейство, с цел да ревизират дали позвъняването е същинско.
" Измамниците се нуждаят единствено от три секунди тон, с цел да клонират гласа ви, само че ще отнеме единствено няколко минути със фамилията и приятелите ви, с цел да създадете сигурна фраза, с цел да им се противопоставите ", изяснява Греъм. " Затова е по-важно от всеки път хората да са наясно с тези типове измами, поддържани от измамници, както и по какъв начин да защитят себе си и своите близки от това да се трансфорат в жертва ", поучава експертът.
Британската организация за киберсигурност съобщи през януари, че изкуственият разсъдък прави все по-трудно разпознаването на фишинг известия, които подмамват потребителите да дадат пароли или персонални данни. Тези все по-сложни измами са съумели да заблудят даже огромни интернационалните компании.
През февруари полицията в Хонконг стартира следствие, откакто чиновник на неназована компания сподели, че е била излъгана да заплати 200 милиона хонконгски $ (20 милиона паунда) от парите на компанията си на измамници в надълбоко подправен видеоконферентен диалог, представяйки се за висши чиновници на компанията. Смята се, че нарушителите са изтеглили авансово видеозаписи и по-късно са употребявали изкуствен интелект, с цел да прибавят подправени гласове, които да бъдат употребявани във видеоконференцията. Лорд Хансън, министърът на вътрешните работи предизвести за големите опасности от AI. " Изкуственият разсъдък дава невероятни благоприятни условия за промишлеността, обществото и държавните управления, само че ние би трябвало да останем бдителни за заплахите, в това число измамите, основани на ИИ ", безапелационен е той.
Източник: trud.bg
КОМЕНТАРИ