В основата на популярни инструменти за генериране на изображения с

...
В основата на популярни инструменти за генериране на изображения с
Коментари Харесай

Модели с AI използват снимки с насилие за генериране на изображения

В основата на известни принадлежности за генериране на изображения с изкуствен интелект стоят хиляди фотоси със полово принуждение над деца.

Това открива ново изследване на Станфордската интернет обсерватория.

Същите тези изображения улесняват системите за изкуствен интелект да основават реалистични и очевидни изображения на подправени деца, както и да трансформират фотоси в обществените мрежи на изцяло облечени същински младежи в голи тела, изяснява Euronews.

Доскоро откривателите на злоупотреби, смятаха, че единственият метод, по който някои AI принадлежности създават изображения на деца, е като комбинират порнография за възрастни с обикновeни фотоси на деца.

Но Станфордската интернет обсерватория открива над 3200 изображения на хипотетични полови злоупотреби с деца в гигантската база данни на LAION - показател на онлайн изображения, употребен за образование на водещи основатели на изображения с AI като Stable Diffusion.

Групата за наблюдаване работи с Канадския център за протекция на детето и други благотворителни организации за битка със половото принуждение, с цел да разпознава противозаконните материали и да заяви за истинските връзки към фотосите на правоприлагащите органи.

Реакцията е незабавна. След публикуването на отчета, LAION съобщи, че краткотрайно отстранява своите набори от данни.

LAION – редуциране от нестопанската организация Large-scale Artificial Intelligence Open Network (Отворена мрежа за широкомащабен неестествен интелект), съобщи, че " има политика на нулева приемливост към нелегално наличие и от съображения за сигурност свалихме наборите от данни на LAION, с цел да се уверим, че те са безвредни, преди да ги публикуваме още веднъж ".

" Не можем да върнем това обратно "

Макар че изображенията съставляват единствено дребна част от показателя на LAION, съдържащ към 5,8 милиарда изображения, групата от Станфорд твърди, че те евентуално оказват въздействие върху способността на инструментите на изкуствения разсъдък да генерират нездравословни резултати и да ускоряват насилието над действителни жертви.

Този проблем не е елементарен за решение и води началото си от това, че доста планове за генеративен изкуствен интелект са " дейно изстреляни на пазара " и са направени необятно налични, защото региона е толкоз конкурентна, смяра основният технолог на Станфордската интернет обсерватория Дейвид Тийл, създател на отчета.

" Вземането на цялостен набор от данни от интернет и потреблението му за образование на модели е нещо, което би трябвало да бъде лимитирано до изследователска активност, в случай че въобще е имало такава. ", споделя Тийл.

Потребител на LAION, който е оказал помощ за създаването на набора от данни, е основаният в Лондон стартъп Stability AI, основател на моделите за превръщане на текст в изображения Stable Diffusion.

Новите версии на Stable Diffusion направиха доста по-трудно основаването на нездравословно наличие, само че по-стара версия, показана предходната година - която Stability AI споделя, че не е пускала,  все още е вградена в други приложения и принадлежности и остава " най-популярният модел за генериране на изображения ", съгласно отчета на Станфорд.

" Не можем да върнем това обратно. Този модел е в ръцете на доста хора на техните местни устройства ", споделя Лойд Ричардсън, шеф на осведомителните технологии в Канадския център за протекция на детето, който ръководи горещата линия на Канада за подаване на сигнали за полова употреба онлайн.

Stability AI съобщи, че хоства единствено филтрирани версии на Stable Diffusion и че " откогато пое изключителното създаване на Stable Diffusion, Stability AI предприе самодейни ограничения за понижаване на риска от корист ".

" Тези филтри отстраняват рисковото наличие, което не доближава до моделите ", се споделя в изказване на компанията. " Премахвайки това наличие, преди то въобще да доближи до модела, можем да помогнем за попречване на генерирането на рисково наличие от модела ".

LAION е концепция на немския откривател и учител Кристоф Шуман, който по-рано тази година съобщи, че част от аргументите да направи такава голяма образна база данни обществено налична е да подсигурява, че бъдещето на развиването на изкуствения разсъдък не се управлява от шепа мощни компании.

" Ще бъде доста по-безопасно и доста по-справедливо, в случай че успеем да го демократизираме, тъй че цялата изследователска общественост и цялата общност да могат да се възползват от него ", споделя той.

Голяма част от данните на LAION идват от различен източник - Common Crawl, вместилище на данни, само че изпълнителният шеф на Common Crawl Рич Скрента съобщи, че е " обвързване " на LAION да сканира и филтрира това, което взема, преди да го употребява.

LAION заяви, че е създала " строги филтри " за разкриване и унищожаване на нелегално наличие, преди да разгласява своите набори от данни и че към момента работи по усъвършенстването им.

В отчета на Станфорд се признава, че разработчиците на LAION са създали някои опити да филтрират наличие, само че е трябвало да се съветват по-рано с специалисти по детска сигурност.

Много генератори на текст към изображения са извлечени от базата данни на LAION, въпреки че не постоянно е ясно кои. OpenAI, основателят на DALL-E и ChatGPT, съобщи, че не употребява LAION и е настроил моделите си по този начин, че да отхвърлят поръчки за полово наличие, включващо малолетни.

Гугъл построи своя модел за превръщане на текст в изображение Imagen въз основа на набор от данни LAION, само че през 2022 година реши да не го разгласява, откакто одит въз основата данни " разкри необятен набор от неуместно наличие, в това число нецензурен изображения, расистки обиди и нездравословни обществени стандарти ".

Как се пазят персоналните данни на децата в интернет

Опитите да се изчистят данните със задна дата са сложни, по тази причина Станфордската интернет обсерватория приканва за по-драстични ограничения.

Една от тях е всеки, който е построил образователни комплекти от LAION-5B - наименуван по този начин поради съдържащите се в него повече от 5 милиарда двойки изображение-текст, да ги " изтрие или да работи с медиатори за изчистване на материала ".

Друг метод е да се направи по този начин, че по-старата версия на Stable Diffusion да изчезне. Легитимните платформи могат да спрат да оферират нейни версии за евакуиране, изключително в случай че те се употребяват за генериране на изображения за корист и нямат защитни ограничения за блокирането им.

Докладът на Станфорд също по този начин слага под въпрос дали фотоси на деца – даже и най-обикновените, би трябвало да се вкарват в системи за изкуствен интелект без единодушието на фамилията им заради федералния Закон за отбрана на персоналната информация на децата в интернет.

Ребека Портноф, шеф на отдела за данните в организацията за битка със половото принуждение над деца Thorn, съобщи, че нейната организация е провела изследване, което демонстрира, че разпространяването на изображения, генерирани от изкуствен интелект, измежду насилниците е малко, само че непрекъснато нараства.

Разработчиците могат да понижат тези вреди, като се уверят, че наборите от данни, които употребяват за модели с AI, са чисти от злоупотреби.

" В момента това не се случва, само че е нещо, което съгласно мен може и би трябвало да се направи ", добавя Портноф.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР