Гласовите фалшификати са опасно явление, което става все по-популярно(снимка: CC0

...
Гласовите фалшификати са опасно явление, което става все по-популярно(снимка: CC0
Коментари Харесай

Защита от дийпфейк с оръжието на измамниците


Гласовите имитации са рисково събитие, което става все по-популярно
(снимка: CC0 Public Domain)

В опит да се опълчват на измамите с реплика на гласовете на действителни хора за незаконни цели и компромати, разработчици сътвориха нова система, която пази от така наречен дийпфейк.

Технологиите за подправяне на глас, употребяващи изкуствен интелект, са много рисков инструмент – те са способни правдоподобно да възпроизведат човешки глас даже от къс откъс. Алгоритъмът AntiFake, препоръчан от американски академик, може да предотврати основаването на такива имитации, заяви New Atlas.

Дийпфейк е много рисково събитие. Фалшификатите на гласове могат да се употребяват, с цел да се припише изказване на прочут актьор или политик, което той в никакъв случай не е правил. Има и прецеденти, при които нападателят се обажда на жертвата и с гласа на другар желае от нея незабавно да преведе пари по отношение на някаква изключителна обстановка.
още по темата
Нин Чжан, помощник професор по компютърни науки и инженерство във Вашингтонския университет в Сейнт Луис, предлага технология, която прави доста по-трудно основаването на гласов дийпфейк. Принципът на деяние на логаритъма AntiFake се свежда до основаване на условия, при които става доста по-трудно за AI системата да чете основните характерности на гласа, когато записва диалог на действителен човек.

„ Инструментът употребява AI техника, която в началото е била прилагана от киберпрестъпниците, само че в този момент я обърнахме против тях. Ние леко изкривяваме записания аудио сигнал, създавайки разстройства тъкмо толкоз, че за човек да звучи по същия метод, само че за AI да звучи изцяло друго ”, разяснява създателят на създаването Нин Джан.

Това значи, че в случай че се опитате да създадете дийпфейк въз основа на запис, модифициран по този метод, генерираният от AI глас няма да бъде сходен на гласа на индивида в извадката. Тестовете демонстрират, че логаритъмът AntiFake е 95% ефикасен при попречване на синтеза на безапелационни дълбоки имитации.

„ Не знам какво ще се случи по-нататък с гласовите AI технологии – непрестанно се създават нови принадлежности и функционалности, само че към момента имам вяра, че нашата тактика за потребление на технологията на врага против самия него ще остане ефикасна ”, уверен е създателят на плана.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР