УНИЦЕФ алармира за бързо нарастваща заплаха за децата
УНИЦЕФ е все по-силно смутен от сигналите за бързо повишаване на броя на сексуализирани изображения, генерирани посредством изкуствен интелект, които циркулират онлайн, в това число случаи, в които фотоси на деца са били манипулирани и сексуализирани. Това се споделя в изказване на УНИЦЕФ по отношение на генерирани посредством изкуствен интелект сексуализирани изображения на деца.
Дийпфейковете – изображения, видеа или аудио, основани или манипулирани с изкуствен интелект (AI), тъй че да наподобяват действителни – все по-често се употребяват за основаване на сексуализирано наличие с присъединяване на деца, в това число посредством така наречен " разсъбличане “ (nudification), при което AI принадлежности се употребяват за унищожаване или смяна на облеклото в фотоси, с цел да се основат подправени голи или сексуализирани изображения.
Нови данни удостоверяват тревожния мащаб на тази бързо възходяща опасност. Според изследване на УНИЦЕФ, ЕКПАТ и ИНТЕРПОЛ в 11 страни над 1,2 милиона деца оповестяват, че техни изображения са били манипулирани и употребявани в полови дийпфейкове през последната година. В някои страни това значи едно наранено дете на всеки 25 – или по едно дете във всяка класна стая.
Самите деца осъзнават този риск. В някои от изследваните страни до две трети от децата декларират, че се тормозят, че AI може да бъде употребен за основаване на подправени полови изображения или видеа. Степента на угриженост варира доста сред обособените страни, което акцентира незабавната нужда от по-ефективни ограничения за осведоменост, предварителна защита и протекция.
Трябва да бъдем изцяло безапелационни. Сексуализираните изображения на деца, без значение дали са генерирани или манипулирани посредством AI принадлежности, са материали със полова корист над деца (CSAM). Дийпфейк злоупотребата е форма на корист, а вредата, която предизвиква, е изцяло действителна.
Когато обликът или идентичността на дете се употребява, това дете става директна жертва. Дори когато няма разпозната жертва, AI-генерираният материал за полова корист над деца възстановява насилието и употребата, подтиква търсенето на сходно наличие и основава съществени провокации пред правоприлагащите органи при идентифицирането и закрилата на деца, които се нуждаят от помощ.
УНИЦЕФ приветства напъните на разработчиците на AI, които ползват правилото " сигурност по дизайн “ и внедряват надеждни защитни механизми за попречване на злоупотреби със своите системи.
Въпреки това обстановката остава несигурна, а прекалено много AI модели се създават без задоволителни гаранции за сигурност.
Рисковете се ускоряват в допълнение, когато генеративните AI принадлежности са вградени непосредствено в платформите на обществените мрежи, където манипулираните изображения могат да се популяризират стремително.
УНИЦЕФ приканва незабавно за следните дейности за справяне с ескалиращата опасност от генерирани от изкуствен интелект материали за полова корист над деца:
- Всички държавни управления да разширят определенията за материал със полова корист над деца (CSAM), тъй че да включват AI-генерирано наличие и да криминализират неговото основаване, придобиване, владеене и разпространяване.
- Разработчиците на AI да ползват подходи за " сигурност по дизайн “и да вкарват постоянни защитни механизми за попречване на злоупотребата с AI модели.
- Дигиталните компании да предотвратяват разпространяването на AI-генериран материал за полова корист над деца – а не просто да го отстраняват откакто злоупотребата към този момент е настъпила; както и да засилят модерирането на наличие посредством вложения в технологии за различаване, тъй че сходен материал да бъде премахван неотложно – а не дни след докладване от жертва или неин представител.
Вредата от злоупотребата с дийпфейк е действителна и незабавна. Децата не могат да чакат законът да ги догони.
Дийпфейковете – изображения, видеа или аудио, основани или манипулирани с изкуствен интелект (AI), тъй че да наподобяват действителни – все по-често се употребяват за основаване на сексуализирано наличие с присъединяване на деца, в това число посредством така наречен " разсъбличане “ (nudification), при което AI принадлежности се употребяват за унищожаване или смяна на облеклото в фотоси, с цел да се основат подправени голи или сексуализирани изображения.
Нови данни удостоверяват тревожния мащаб на тази бързо възходяща опасност. Според изследване на УНИЦЕФ, ЕКПАТ и ИНТЕРПОЛ в 11 страни над 1,2 милиона деца оповестяват, че техни изображения са били манипулирани и употребявани в полови дийпфейкове през последната година. В някои страни това значи едно наранено дете на всеки 25 – или по едно дете във всяка класна стая.
Самите деца осъзнават този риск. В някои от изследваните страни до две трети от децата декларират, че се тормозят, че AI може да бъде употребен за основаване на подправени полови изображения или видеа. Степента на угриженост варира доста сред обособените страни, което акцентира незабавната нужда от по-ефективни ограничения за осведоменост, предварителна защита и протекция.
Трябва да бъдем изцяло безапелационни. Сексуализираните изображения на деца, без значение дали са генерирани или манипулирани посредством AI принадлежности, са материали със полова корист над деца (CSAM). Дийпфейк злоупотребата е форма на корист, а вредата, която предизвиква, е изцяло действителна.
Когато обликът или идентичността на дете се употребява, това дете става директна жертва. Дори когато няма разпозната жертва, AI-генерираният материал за полова корист над деца възстановява насилието и употребата, подтиква търсенето на сходно наличие и основава съществени провокации пред правоприлагащите органи при идентифицирането и закрилата на деца, които се нуждаят от помощ.
УНИЦЕФ приветства напъните на разработчиците на AI, които ползват правилото " сигурност по дизайн “ и внедряват надеждни защитни механизми за попречване на злоупотреби със своите системи.
Въпреки това обстановката остава несигурна, а прекалено много AI модели се създават без задоволителни гаранции за сигурност.
Рисковете се ускоряват в допълнение, когато генеративните AI принадлежности са вградени непосредствено в платформите на обществените мрежи, където манипулираните изображения могат да се популяризират стремително.
УНИЦЕФ приканва незабавно за следните дейности за справяне с ескалиращата опасност от генерирани от изкуствен интелект материали за полова корист над деца:
- Всички държавни управления да разширят определенията за материал със полова корист над деца (CSAM), тъй че да включват AI-генерирано наличие и да криминализират неговото основаване, придобиване, владеене и разпространяване.
- Разработчиците на AI да ползват подходи за " сигурност по дизайн “и да вкарват постоянни защитни механизми за попречване на злоупотребата с AI модели.
- Дигиталните компании да предотвратяват разпространяването на AI-генериран материал за полова корист над деца – а не просто да го отстраняват откакто злоупотребата към този момент е настъпила; както и да засилят модерирането на наличие посредством вложения в технологии за различаване, тъй че сходен материал да бъде премахван неотложно – а не дни след докладване от жертва или неин представител.
Вредата от злоупотребата с дийпфейк е действителна и незабавна. Децата не могат да чакат законът да ги догони.
Източник: focus-news.net
КОМЕНТАРИ




