Разработиха система за защита на гласа от създаване на дийпфейк
Технологиите за подправяне на глас, употребяващи изкуствен интелект, са много рисков инструмент — те са способни правдоподобно да възпроизведат човешки глас, даже и от къс пример. AntiFake логаритъмът, препоръчан от американски академик, може да предотврати основаването на умел фалшификат.
Дийпфейк е много рисково събитие — може да бъде употребен, с цел да се припише изказване на прочут актьор или политик, което той в никакъв случай не е правил. Имаше и прецеденти, при които нападателят се обажда на жертвата и с гласа на неин другар изиска незабавно да преведе пари по отношение на някаква изключителна обстановка. Нин Джан (Ning Zhang), помощник професор по компютърни науки и инженерство във Вашингтонския университет в Сейнт Луис, предложи технология, която прави доста по-трудно основаването на гласови дийпфейкове.
Принципът на деяние на AntiFake логаритъма е да сътвори условия, при които става доста по-трудно за AI системата да чете основните характерности на гласа, когато записва диалог на действителен човек. „ Инструментът употребява противникова AI-техника, която в началото е била употребена от киберпрестъпниците, само че в този момент я обърнахме против тях. Ние леко изкривяваме записания аудио-сигнал, създавайки разстройства тъкмо толкоз, че за индивида да звучи идентично, само че за AI да се чува изцяло друго “ — разяснява плана си господин Джан.
Това значи, че в случай че се опитате да създадете дийпфейк въз основа на модифициран по този метод запис, генерираният от AI-глас няма да бъде сходен на този на индивида в образеца. Тестовете демонстрират, че AntiFake логаритъмът е 95% ефикасен при предотвратяването на синтеза на безапелационни дълбоки дийпфейкове. „ Не знам какво ще се случи по-нататък с гласовите AI-технологии — непрестанно се създават нови принадлежности и функционалности — само че към момента имам вяра, че нашата тактика за потребление на технологията на врага против самия него ще остане ефикасна “ — заключи създателят на плана.