Светът е залят от deepfake (дълбоки фалшификати) - видео, аудио

...
Светът е залят от deepfake (дълбоки фалшификати) - видео, аудио
Коментари Харесай

Deepfake лавината помита всичко – защо е толкова опасна и може ли да бъде спряна?

Светът е залят от deepfake (дълбоки фалшификати) - видео, аудио или фотоси, на които хората наподобяват, че вършат или споделят неща, които не са, или че са някъде, където не са били. Повечето дълбоки имитации са видеоклипове и изображения, основани посредством слагане на лицето на известна персона върху тялото на някой различен. Някои от тях се употребяват за измами или за уронване на репутацията на политици и други хора в публичното пространство.

Напредъкът в изкуствения разсъдък значи, че за основаването им са нужни единствено няколко докосвания на клавиатурата. Това от ден на ден тревожи държавните управления и те се ангажират да търсят способи да се опълчват.
Какво се прави за битка с дълбоките имитации?
През февруари Федералната комисия по връзките на Съединени американски щати разгласи за нелегално потреблението на гласове, генерирани от изкуствен интелект, от фирмите при позвънявания.

Забраната пристигна два дни откакто ФКК издаде заповед за преустановяване на активността на компанията, виновна за звуков deepfake на президента Джо Байдън. Жителите на Ню Хемпшир получиха преди президентските първоначални избори в щата роботизирано позвъняване, което звучеше като от президента и ги призоваваше да си останат у дома и да „ запазят гласа си за изборите през ноември “. Гласът даже произнася една от присъщите изречения на Байдън: „ Какви са тези нелепости “.

Понастоящем в Съединени американски щати няма федерален закон, който да не разрешава дълбоките имитации. А в Европейския съюз препоръчаният Закон за изкуствения разсъдък ще изисква от платформите да отбелязват дълбоките имитации като такива.
Вълна от deepfake наличие
В края на януари в обществените мрежи бяха необятно публикувани deepfake изображения на поп звездата Тейлър Суифт, което провокира гнева на легионите ѝ почитатели. Инцидентът провокира угриженост от страна на Белия дом. По-рано същия месец Ксочитъл Гомес, 17-годишна актриса в поредност на Марвел, проговори за това, че е разкрила в обществените мрежи deepfake изображения с нейното лице със полов подтекст и не е съумяла да издейства събаряне на материалите.
Как се вършат deepfake видеоклипове?
Те постоянно се основават благодарение на логаритъм с изкуствен интелект, който е подготвен да разпознава модели в действителни видеозаписи на несъмнено лице – развой, прочут като надълбоко образование. След това е допустимо да се размени детайл от един видеоклип, като да вземем за пример лицето, в друго наличие, без то да наподобява като недодялан монтаж.

Манипулациите са най-подвеждащи, когато се употребяват с технологията за клониране на глас, която разгражда аудиоклип на говорещ човек на части от половин сричка, които могат да бъдат съединени в нови думи, които наподобяват като изречени от индивида в истинския запис.
Как се появи технологията на дълбоките имитации?
Първоначално технологията беше в областта на университетските среди и откривателите. През 2017 година обаче Motherboard заяви, че консуматор на Reddit, наименуван „ deepfakes “, е създал логаритъм за основаване на подправени видеоклипове благодарение на стратегия с отворен код. Reddit блокира потребителя, само че практиката се популяризира.

Първоначално за изработката на deepfake наличие се изискваше към този момент действителен видеоклип и същинско вокално осъществяване, както и умели качества за редактиране. Днешните генеративни системи за изкуствен интелект разрешават на потребителите да основават безапелационни изображения и видеоклипове от елементарни писмени подсказки.

Поискайте от компютър да сътвори видеоклип, вкарвайки думи в нечия уста, и той ще се появи. Дигиталните имитации стават все по-трудни за разкриване, защото фирмите за изкуствен интелект ползват новите принадлежности към голямото количество материали, налични в интернет – от YouTube до библиотеки с изображения и видеоматериали.
Други образци за дълбоки имитации
Китайски тролове разпространиха манипулирани изображения на горските пожари през август на хавайския остров Мауи, с цел да поддържат изказванието, че те са породени от скрито „ метеорологично оръжие “, което се тества от Съединени американски щати.

През май 2023 година американските акции се намаляват за малко, откакто в интернет се популяризира изображение, на което се вижда, че Пентагонът гори. Експертите обявиха, че подправената фотография е имала признаците на генерирана от изкуствен интелект.

През февруари същата година се появи изфабрикуван аудиоклип, в който се чува по какъв начин претендентът за президент на Нигерия Атику Абубакар заговорничи за подправяне на вота през този месец.

През 2021 година в обществените медии бе оповестен едноминутен видеоклип, който изглеждаше, че демонстрира по какъв начин украинският президент Володимир Зеленски споделя на бойците си да сложат оръжие и да се предадат на Русия.
Каква е заплахата?
Опасенията са, че дълбоките имитации в последна сметка ще станат толкоз безапелационни, че ще бъде невероятно да се разграничи кое е същинско от кое е изфабрикувано. Представете си измамници, които манипулират цените на акциите, като основават подправени видеоклипове на основни изпълнителни шефове, които издават корпоративни вести, или фалшифицирани видеоклипове на бойци, извършващи военни закононарушения.

Политиците, бизнес водачите и известните персони са изключително изложени на риск, като се има поради какъв брой доста записи с тях са налични. Технологията прави допустимо така наречен порно възмездие, даже и да не съществува действителна гола фотография или видео, като нормално цел са дамите. След като видеоклипът се популяризира всеобщо в интернет, е съвсем невероятно да бъде арестуван.

Допълнително безпокойство е, че разпространението на информация за дълбоките имитации ще улесни хората, които в действителност са снимани да вършат или споделят неприемливи или противозаконни неща, да настояват, че доказателствата против тях са подправени. Някои хора към този момент употребяват отбраната на дълбоките имитации в съда.
Как да се овладеят дълбоките имитации?
Видът машинно образование, който основава дълбоките имитации, не може елементарно да бъде извърнат, с цел да ги открие. Но шепа стартъпи, като основаната в Нидерландия Sensity AI и основаната в Естония Sentinel, създават технологии за разкриване, както и доста огромни американски софтуерни компании.

През ноември 2022 година Intel Corp. пусна на пазара артикул FakeCatcher, за който твърди, че може да открива подправени видеоклипове с 96% акуратност, като следи фините промени в цвета на кожата на обекта, породени от притока на кръв. Компании, измежду които и Microsoft Corp. дадоха обещание да вграждат цифрови водни знаци в изображения, основани благодарение на техните принадлежности за изкуствен интелект, с цел да ги разграничават като подправени.
Източник: economic.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР