Въпреки усилията на големите ИТ компании, засега битката с deepfake

...
Въпреки усилията на големите ИТ компании, засега битката с deepfake
Коментари Харесай

Майсторски фалшификати могат да заблудят лицевото разпознаване


Въпреки напъните на огромните ИТ компании, към този момент борбата с „ deepfake ” наподобява изгубена
(снимка: CC0 Public Domain)

Майсторските имитации – по този начин наречените „ deepfakes ” или видеоклипове, в които даден човек в действителен видеоклип бива изкусно сменен с облика на различен човек – се умножават равноускорително.

Според новостартиращата компания Deeptrace, броят на майсторските имитации в мрежата се е нараснал с 330% от октомври 2019 година до юни 2020 година, достигайки над 50 000 в своя пик. Това е притеснително освен тъй като фалшификатите могат да бъдат употребявани, с цел да повлияят на мнението на хората по време на избори или да намесят обещано лице в закононарушение, само че и тъй като се употребяват за брутално оклеветяване – да вземем за пример като показват дадена персона като участник в нецензурен материали – или пък да породят измами.

Сега майсторските фалшификации, съгласно ново изследване, са достигнали точката, в която могат надеждно да заблудят комерсиалните технологии и услуги за лицево различаване. В публикация (), оповестена на сървъра за научни изявления Arxiv.org, откриватели от Университета Сунгкянкван в Сувон, Южна Корея, показват, че API на Microsoft и Amazon могат да бъдат заблудени с постоянно употребявани способи за генериране на „ дълбоки фейкове ”. В съответен случай един от API-тата – Azure Cognitive Services на Microsoft – е бил подведен от до 78% от фалшификатите, които създателите са му подали.

„ От опитите откриваме, че някои способи за генериране на дълбоки фейкове съставляват по-голяма опасност за системите за лицево различаване спрямо други, както и че всяка система реагира друго на опитите за замяна на хората ”, пишат откривателите. „ Ние имаме вяра, че резултатите от нашите проучвания могат да хвърлят светлина върху по-доброто планиране на постоянни уеб-базирани API, както и подобаващи защитни механизми, които са незабавно нужни за битка против злонамереното потребление на дълбоки фейкове ”.

Изследователите са избрали да съпоставят API за лицево различаване от Microsoft и Amazon, защото и двете компании оферират услуги за лицево различаване на звезди, отбелязва. Гугъл също предлага различаване на звезди посредством своя API на Cloud Vision, само че компанията не е взела участие в проучването.

Приложните програмни интерфейси (API) боравят с мярка, известна като „ индикатор за оценяване на сходствата на лицето ”, който прави допустимо сравняването. И защото изображенията на лица на звезди са в обилие в интернет – доста повече спрямо тези на който и да е елементарен човек – то откривателите са съумели да генерират дълбоки фейкове на неколцина от тях релативно елементарно..

За да видят доколко комерсиалните API за лицево различаване могат да бъдат заблудени от дълбоките имитации, откривателите са употребявали модели, основани от неестествен разсъдък, подготвени върху пет разнообразни набора от данни – три обществено налични и два, които учените са основали сами. Наборите са съдържали лицата на холивудски кино звезди, артисти, спортисти и политици. Създадени са общо 8199 майсторски фалшификата. След това учените извадили лица от фрагменти от подправените видеозаписи и предиздвикали услугите с цел да предскажат коя звезда е изобразена.

Изследователите открили, че всички API са „ податливи на илюзия ” посредством дълбоките имитации. Azure Cognitive Services е разпознала неправилно в 78% от случаите, до момента в който Amazon Rekogmination е била излъгана в 68,7% от случаите. И още: Rekognition е сбъркала фалшификатите с една звезда с облиците на друга звезда в 40% от случаите. За общо 902 от всичките 3200 фалшификата системата е дала висока степен на убеденост, че това е действително изображение на същинската звезда. В опита с Azure Cognitive Services откривателите сполучливо са „ подменили ” 94 от 100 разпознати звезди.
още по тематиката
Когато услугите на Microsoft и Amazon позволяват неточности, те вършат това с висока степен на убеденост, като Amazon демонстрира „ доста ” по-висока неустойчивост към подвеждане посредством дълбоки фейкове, регистрират учените.

„ Ако приемем, че главният API за различаване на лица не може да разграничи имитиращия фалшификат от същинския консуматор, това може да докара до доста опасности за поверителността, сигурност и репутацията, както и голям брой случаи на измами ”, предизвестяват откривателите. „ Технологиите за гласово и нагледно надълбоко подправяне могат да се комбинират за основаване на „ мултимодални имитации ”, които да се употребяват за осъществяване на по-мощни и реалистични фишинг атаки… И в случай че комерсиалните API-та не съумеят да филтрират в обществените медии, това ще разреши разпространяването на подправена информация и ще донесе доста вреди на почтени лица ”.

Констатациите от изследването демонстрират, че битката против майсторските имитации евентуално ще остане предизвикателна, изключително като се има поради, че техниките за генериране на наличие непрекъснато и бързо се усъвършенстват. Неотдавна лъжливо видео с подправено присъединяване на Том Круз, оповестено в неизпитан акаунт в TikTok, събра 11 милиона гледания в приложението. Когато видеото беше сканирано в няколко от най-хубавите обществено налични принадлежности за разкриване на дълбоки фалшификации, нито един от тях не съумя да долови измамата.

Въпреки напъните на огромните ИТ компании, към този момент борбата наподобява изгубена.

„ Очакваме, че методите за генериране на изкуствени среди ще продължат да се усъвършенстват. Тъй като всички способи за разкриване на база на неестествен разсъдък имат прочут % на неуспех, то ние би трябвало да разберем и да сме подготвени да реагираме на майсторските имитации, които биват пропускани от системите за вписване на измами ”, написа Том Бърт – Microsoft CVP за сигурността и доверието на клиентите – в блог обява предишния септември.

„ В дълготраен проект би трябвало да търсим по-силни способи за поддържане и засвидетелствуване на достоверността на новинарски публикации и други медии ”, заключи той.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР