Скарлет Йохансон предприема съдебни действия срещу приложение с изкуствен интелект,

...
Скарлет Йохансон предприема съдебни действия срещу приложение с изкуствен интелект,
Коментари Харесай

Защо реклама с изкуствен интелект разгневи Скарлет Йохансон

Скарлет Йохансон подхваща правосъдни дейности против приложение с изкуствен интелект, употребило името и гласа ѝ в реклама без нейно позволение, оповестява Variety.

22-секундната реклама е оповестена в X (Twitter) на 28 октомври от приложението за генериране на изображения с изкуствен интелект Lisa AI: 90s Yearbook & Avatar.

Рекламата на приложението включва изображения на актрисата и глас, сходен на нейния, генериран от изкуствен интелект. Дребен шрифт под рекламата показва, че наличието, генерирано от изкуствен интелект, " няма нищо общо с това лице ".

От екипа на Скарлет Йохансон потвърдиха пред Variety, че тя не е представител на приложението, а юристът ѝ съобщи, че са подхванати правни дейности.

Според CNBC, рекламата към този момент е свалена, а от двете наранени страни не са дали отговор на запитването за коментар.

Въпреки че доста известни персони към този момент са били обект на така наречен дийпфейк измами, те могат да основат проблеми и на елементарните консуматори, добавя CNBC.

В случаите на дийпфейк логаритмите с изкуствен интелект се образоват да разпознават модели в огромни масиви от данни, след което употребяват тези умения за различаване на модели върху нов набор от данни или за приемане на резултати, сходни на истинския набор от данни.

Ето един банален образец: Модел с изкуствен интелект може да получи аудиоклипове на говорещ човек и да се научи да разпознава неговите речеви модели, тоналност и други неповторими аспекти на гласа му. След това моделът може да сътвори синтетична версия на гласа.

Проблемът е, че технологията може да бъде употребена по нездравословен метод, изяснява Джамин Едис, доцент в Нюйоркския университет с над 25-годишен опит в софтуерната и медийната промишленост.

" Дълбоките имитации са просто ново средство за обезличаване и машинация, и като такова могат да бъдат употребявани по злонамерени способи, без значение дали става дума за известна персона ", споделя той пред CNBC. " Примери за това могат да бъдат вашият облик - или този на вашите близки, който се употребява за порнография или за изнудване. "

Това, което е още по-обезпокоително, е, че е все по-трудно да се направи разлика сред същинското и подправеното, защото технологията за дълбоки фалшификации бързо се развива, изяснява Едис.

Има няколко неща, които можете да извършите, в случай че се чудите дали нещо е дийпфейк.

От една страна, запитайте се дали изображенията, които виждате, дават отговор на действителността, поучава доцентът. Ако видите реклама, в която известна персона промотира нещо по незадоволително съответен метод, е добре да ревизирате другите ѝ сметки в обществените мрежи.

Големите софтуерни компании, в това число Meta, Гугъл и Microsoft, също създават принадлежности, които да оказват помощ на хората да откриват дийпфейк измамите.

Същевременно, президентът на Съединени американски щати Джо Байдън неотдавна разгласи първата изпълнителна заповед за изкуствения разсъдък, която ще изисква слагането на водни знаци за ясно обозначаване на наличието, генерирано от изкуствен интелект, и други ограничения за сигурност.

Технологията обаче исторически остава една крачка пред регулациите, добавя Едис.

" С времето обществените правила и правните разпореждания нормално поправят най-лошите инстинкти на човечеството. Дотогава ще продължим да виждаме по какъв начин технологията за дълбоки имитации се трансформира в оръжие с отрицателен резултат. ", разяснява специалистът.

 
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР