Dall-E и Stable Diffusion бяха само началото. С разрастването на

...
Dall-E и Stable Diffusion бяха само началото. С разрастването на
Коментари Харесай

MIT представи иновативен софтуер срещу визуални AI манипулации

Dall-E и Stable Diffusion бяха единствено началото. С разрастването на системите за генеративен изкуствен интелект и напъните на фирмите да разграничат своите платформи от тези на съперниците си, чатботовете в интернет получават все по-усъвършенствани благоприятни условия за редактиране и основаване на изображения, като водещи са компании като Shutterstock и Adobe.     Но дружно с тези нови благоприятни условия на изкуствения разсъдък, написа Еngadget, се появяват и познатите клопки като неразрешеното манипулиране или напряко кражба на съществуващи онлайн творби на изкуството и изображения.     Техниките за интеграция на водни знаци могат да оказват помощ за понижаване на резултатите от второто, а нова технология, наречена PhotoGuard и създадена от MIT CSAIL, може да помогне за попречване на първото.   

PhotoGuard работи, като трансформира определени пиксели в изображението по този начин, че да наруши способността на изкуствения разсъдък да разбере какво съставлява то. Тези " пертурбации ", както ги назовава изследователският екип, са невидими за човешкото око, само че елементарно четими от машините.  
Методът за въвеждане на тези промени е ориентиран към латентното показване на целевото изображение от алгоритмичния модел - комплицирана математика, която разказва позицията и цвета на всеки пиксел в изображението, като всъщност пречи на AI да разбере какво гледа.     По-напредналият и изчислително натоварен способ пък маскира обектите като друго изображение “в очите на AI ”. Той трансформира представяното изображение - то наподобява на оригинала, само че на процедура всички редакции, които AI се пробва да направи върху тези " ваксинирани " разновидности, не засягат оригинала. Това на собствен ред води до нереалистично изглеждащо генерирано изображение.    

“Нашият енкодер лъже AI модела, че входното изображение (което би трябвало да се редактира) е някакво друго (напр. сиво платно) ", изяснява докторантът от MIT и водещ създател на плана Хади Салман пред Engadget. “Технологията е безотказна ”. 
" Съвместните старания на разработчици на модели, платформи за обществени медии и основатели на политики може да бъде надеждна отбрана против неоторизираното манипулиране на изображения. Работата по този наложителен проблем е от първостепенно значение през днешния ден ", безапелационен е още той. " И въпреки да се веселя, че мога да допринеса за това решение, е нужна още доста работа, с цел да се направи тази отбрана на практика използваема. Компаниите, които създават тези AI модели, би трябвало да влагат в проектирането на надеждни имунни системи против вероятните закани, подбудени от тях. "          
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР