Темата за изкуствения интелект (ИИ) добива изключително обществено внимание през

...
Темата за изкуствения интелект (ИИ) добива изключително обществено внимание през
Коментари Харесай

Преоткритата мания по изкуствения интелект и рисковете от нея

Темата за изкуствения разсъдък (ИИ) добива извънредно публично внимание през последните месеци - от бомбастичното появяване на ChatGPT на сцената до все по-бързо набиращите известност платформи за генеративен ИИ Faceswap и Midjourney. Възхищение, само че и въпроси и рецензия изпълват мненията по отношение на все по-бързо разрастващата се технология. Поразяващата акуратност и креативност на гореспоменатите платформи за ИИ заляха като вълна първите страници по света. Умението на ChatGPT да написа курсови работи, да взема решение проби, да написа лирика, да предава информация и още куп други неща и извънредно реалистичните генерирани “дийпфейк “ (deepfake - бездънен фалшификат) изображения на Faceswap и Midjourney хванаха доста хора неподготвени.

Събудилата се фикс идея по ИИ се усети незабавно: не разрешиха ChatGPT в Италия, всички софтуерни колоси незабавно оповестиха личните си планове за генеративен ИИ, подправени фотоси на президента на Франция Еманюел Макрон от митингите в страната и дийпфейкове за „ ареста “ на някогашния президент на Съединени американски щати Доналд Тръмп заляха интернет и даже си проправиха път в медиите. Органът на Европейски Съюз за отбрана на персоналните данни сътвори работна група за ChatGPT, която да помогне на страните за справяне с чатбота, ИИ съумя да завоюва конкурс по снимка в Германия, Кувейт се снабди със личен ефирен водещ с ИИ, Илон Мъск прикани да се спре тестването на ИИ, поради сигурност, до момента в който Бил Гейтс направи тъкмо противоположното и се опълчи на препоръчаната възбрана - накъдето и да се обърнем, новините за ИИ са на всички места.

Какво е дийпфейк

Преди да разгледаме образците за въздействието и евентуалните проблеми на тази технология в обособените сфери на живот, би трябвало да знаем какво тъкмо е дийпфейк.

Дълбоките имитации употребяват изкуствен интелект за генериране на изцяло нов видеоклип или аудиоклип, като крайната цел е да се показа нещо, което в действителност не се е случило в реалност.

Терминът " deepfake " идва от главната технология - логаритмите за надълбоко образование, които се научават да вземат решение проблеми с огромни набори от данни и могат да се употребяват за основаване на подправено наличие на действителни хора.

" Дийпфейк би бил кадър, генериран от компютър, който е подготвен посредством безчет съществуващи изображения ", споделя пред „ Бизнес инсайдър “ Кристина Лопес, старши анализатор в Graphika - компания, която изследва потока от информация в цифровите мрежи.

Компютърно подпомагани технологии като Photoshop и CGI постоянно се употребяват за основаване на медийни артикули, само че разликата е, че във всяка стъпка от процеса вземат участие хора. При тези генерирани от ИИ не се изисква изключително умеене от страна на индивида, с цел да се сътвори каквото и да е, ИИ прави всичко.

Съществуват няколко метода за основаване на дийпфейк, само че най-разпространеният се основава на потреблението на дълбоки невронни мрежи, които употребяват техника за замяна на лица. Първо се нуждаете от целеви видеоклип, който да употребявате като основа на дълбокия фалшификат, по-късно и от сбирка от видеоклипове на лицето, което желаете да вмъкнете в целевия видеоклип.

Видеоклиповете могат да бъдат изцяло несвързани: задачата може да бъде да вземем за пример клип от холивудски филм, а видеоклиповете на лицето, което желаете да вмъкнете във кино лентата, може да бъдат случайни клипове, изтеглени от YouTube.

Програмата отгатва по какъв начин наподобява лицето от разнообразни ъгли и условия, след което съпоставя това лице с другото от целевия видеоклип, като намира общи характерности.

Към микса се прибавя различен тип машинно образование, известно като Generative Adversarial Networks (GAN), което открива и усъвършенства всички дефекти в дийпфейка в границите на няколко кръга, като затруднява декодирането им от детектори за дийпфейк.

Въпреки че процесът е комплициран, софтуерът е много наличен. Има голям брой приложения, които правят тази активност - това не е монопол на изброените при започване на текста генеративни ИИ платформи.

Стара нова фикс идея

Също по този начин е значимо да се означи, че това не е нещо ново. Първите случаи на известни дийпфейк „ вести “ се появяват още 2018 година, само че, за разлика оттогава, технологията е по-усъвършенствана и съумя да пробие напълно в мейнстрийма.

Подобни открития, които заплашват с въздействието си открити от генерации публични процеси, не са нещо извънредно. Индустриалната гражданска война изцяло промени света, като безусловно унищожава вековни структури в обществото, и не дребна част от обвързваните с нея страхове се повтарят и в този момент. Потенциалната загуба на работни места, които ще бъдат сменени от ИИ, прилича същите страхове по отношение на потреблението на нови машини за произвеждане през XIX век. Също по този начин големият скок в продуктивността след революцията може да се срещне и при всеобщото нахлуване на ИИ в работния развой, защото се вижда, по какъв начин ИИ извършва задания по-бързо от хората с не всеки път по-лош резултат.

Позитивният резултат на индустриалната гражданска война не значи, че би трябвало да се подценяват редицата рискове, които ИИ слага. Индустриалната гражданска война промени работния развой задоволително последователно, тъй че хилядите занаятчии да могат да се пренасочат и да не останат вкупом без работа. По този метод не се реалиира този краен сюжет за хиляди безработни и небогати, станали такива по виновност на машините. Поради това би трябвало да се обърне внимание на някои проблеми, които произтичат от ИИ.

Дийпфейк порно

Разследване на Кат Тенбарж от " Ен Би Си Нюз " демонстрира какъв брой тревожно публикувано и налично е станало дийпфейк порното без единодушие.

Не е належащо да търсите в " тъмната мрежа " или да сте изключително компютърно грамотни, с цел да намерите дийпфейк порно. Два от най-големите уеб страници, които оферират това наличие, са леснодостъпни посредством Гугъл. Създателите на уеб страниците употребяват онлайн чат платформата Discord, с цел да популяризират стоката си, а хората могат да заплащат за нея с Visa и Mastercard. Бизнесът процъфтява дотолкоз, че " двама известни основатели оферират платени позиции, които да им оказват помощ да основават наличие ".

Не е изненадващо, че дамите са тези, които в огромна степен са наранени от възхода на този вид порно. В отчет от 2019 година на Sensity - компания, която открива и следи дълбоките имитации, се открива, че 96% са били полови без единодушие, а в 99% от тях са взели участие дами. Все по-често дамите, към които са ориентирани, не са единствено известни персони, както неотдавна, да вземем за пример, Скарлет Йохансон и Ема Уотсън бяха употребявани в полови реклами благодарение на Faceswap, само че можете и да получите дийпфейк порно, направено по поръчка с присъединяване на всекиго, който ви харесва. " Създател предложи в Discord да направи петминутен клип на момиче от Instagram, за 65 $ ".

По-рано тази година стриймър от Twitch на име Брандън " Атриок " Юинг призна, че е купувал и гледал дийпфейк порно на свои колеги-жени. Признанието пристигна единствено тъй като без да желае сподели прозорец за такова порно на компютъра си по време на стрийм.

Една от дамите, за които се твърди, че са станали цел на дийпфейк порно, стриймърката QTCinderella, описа за провалите, които това е нанесло върху психическото ѝ здраве. " Ето по какъв начин наподобява възприятието, че си насилван, ето по какъв начин наподобява възприятието, че си употребен ", сподели тя в предаване онлайн на 30 януари. " Ето по какъв начин наподобява да се видиш гола срещу волята си, популяризирана из целия интернет ", показа тя. " Не би трябвало да е част от работата ми да заплащам пари, с цел да бъдат свалени тези неща. Не би трябвало да е част от работата ми да бъда унизена, да виждам по какъв начин се популяризират мои " голи " фотоси. "

Изкуството и ИИ

Последиците от генерирането на изображения с изкуствен интелект са огромни и могат да повлияят на всичко- от филми до графични романи. Детските илюстратори побързаха да изразят угриженост по отношение на технологията в обществените мрежи. Сред тях е създателят и илюстратор Роб Бидълф, който споделя пред „ Гардиън “, че изкуството, генерирано от изкуствен интелект, " е тъкмо противоположното на това, което имам вяра, че е изкуството. В основата си постоянно съм считал, че изкуството се състои в това да предадеш нещо, което чувстваш вътрешно, в нещо, което съществува външно. Каквато и форма да приема, без значение дали става дума за статуя, музикално произведение, писане, пърформанс или изображение, същинското изкуство е обвързвано с креативния развой доста повече, в сравнение с с крайното произведение. А елементарното натискане на бутон за генериране на изображение не е креативен развой. "

Освен творчеството има и по-задълбочени въпроси. В онлайн акция - #NotoAIArt - художници споделят опасения по отношение на законността на генераторите на изображения с изкуствен интелект и за това по какъв начин те имат капацитета да обезценят уменията за изобразяване на илюстрации. За да основават изображения от подсказки, ИИ генераторите разчитат на бази данни с към този момент съществуващи творби на изкуството и текст. Те се състоят от милиарди изображения, които са били извлечени от интернет. Сред най-големите е наборът от данни с отворен код LAION-5B, употребен от Text 2 Dream на DDG. Калоян Чернев, създател на DDG, споделя, че наборът от данни се състои " значително от изображения, които са публично притежание и са получени от интернет ", само че доста художници и илюстратори споделят, че базите данни постоянно включват и доста изображения, предпазени с авторски права.

Дийпфейк и изборите в Съединени американски щати 2024 година

Предизвикателство за медиите през 2024 година сигурно ще бъде методът, по който се оправят с изкуствения разсъдък. С новите триумфи в технологиите ИИ буди огромна паника поради потреблението му в обществените мрежи и приноса му за дезинформацията - той се развива бързо и елементарно се трансформира в безапелационен аудиоматериал, изображение или текст. Неотдавнашен образец са подправените изображения, генерирани от ИИ, на които някогашният президент Доналд Тръмп е задържан, и които бързо се разпространиха в обществените мрежи.

Експерти споделят пред " Уошингтън Поуст ", че усъвършенстването и достъпността на ИИ доста изпреварват регулаторните и законодателните реакции, както и корпоративния надзор, и съставляват голям риск за изборния цикъл през 2024 година

Аудио дийпфейк измами

Опасностите не са лимитирани до текст и изображения- аудио дийпфейк е извънредно известен. Лесно може да се открият най-различни аудио материали в интернет с дийпфейк наличие. Може да се натъкнете елементарно на диалог сред някогашни американски президенти, които, до момента в който играят „ Minecraft ” и събират минерали, си приказват намерено за военни закононарушения и надзор над оръжията. Ако американската политика не ви трогва, то по какъв начин Ема Уотсън чете „ Моята битка “ на Адолф Хитлер може да ви заинтригува повече. Комедийният триумф на тези дийпфейкове е изумителен, само че също по този начин и демонстрира какъв брой елементарно и налично е. Подобно нещо може да бъде употребявано за къде по-подли цели от това да се вършат иронични клипчета в YouTube.

Обажда ви се член на фамилията, който е в неволя и ви желае незабавно пари, а вие се съгласявате. Накрая се оказва, че сте били излъгани от подправен глас на родственик, генериран от ИИ. Телефонните измами надалеч не са нещо ново, само че даже в този момент хора биват подлъгвани по разнообразни способи, изключително по-възрастните. С сходно ново оръжие в арсенала на измамниците не е мъчно човек да си показа по-горния образец.

Според специалистите по компютърни науки, това не изисква доста работа.

" Не им е нужна доста огромна част от гласа, с цел да създадат много положително възпроизвеждане ", сподели в изявление за Евронюз Матю Райт, началник на катедрата по компютърни науки в Технологичния институт в Рочестър.

" Можете да си визиите, че те просто се обаждат, преструват се на продавач и улавят задоволително от гласа, с цел да прави работа. И това може би е всичко, от което ще се нуждаят, с цел да заблудят някого ", изяснява той.

Неотдавна публицист от Vice съумя да проникне в банковата си сметка, като употребява ИИ имитация на гласа си. Той накара банката да мисли, че това е той, с цел да получи достъп до транзакциите си, поставяйки под въпрос системите за сигурност с гласови биометрични данни.

Дезинформация

Поразяващите умения на ChatGPT на OpenAI да написа комплицирани и изобретателни текстове, изцяло задоволителни за домашна работа на възпитаник или курсов план на студент, дават нови хоризонти за евентуална дезинформация.

" Този инструмент ще бъде най-мощното средство за разпространяване на дезинформация, каквото в миналото е имало в интернет ", споделя пред „ Ню Йорк Таймс “ Гордън Кровиц, съизпълнителен шеф на NewsGuard - компания, която следи дезинформацията в интернет. " Изготвянето на нов подправен роман към този момент може да се прави в трагичен мащаб и доста по-често - това е все едно да има сътрудници с изкуствен интелект, които способстват за дезинформацията. "

Дезинформацията е сложна за премахване, когато се основава ръчно от хора. Изследователите предвиждат, че генеративната технология може да направи дезинформацията по-евтина и по-лесна за основаване за още по-голям брой конспиратори и разпространители на дезинформация.

Персонализираните чатботове в действително време биха могли да споделят тайни теории по все по-достоверни и безапелационни способи, споделят откривателите, като изглаждат човешките неточности като неприятен синтаксис и неверни преводи и напредват оттатък елементарно откриваемите copy-paste задания. И споделят, че никоя от наличните тактики за намаляване на въздействието не може да се оправи дейно с това.

Най-добрата отбрана против дезинформацията си остава равнището на медийна просветеност в обществото. В страна като Финландия, която е преди всичко по този показател в Европа, сходни подправени акции биха имали стеснен резултат.

Други опасности, изложени от Европейски Съюз

В актуализирана публикация на Европейския парламент от 2018 година за опциите и рисковете от ИИ, Екологичен потенциал отличава още няколко значими риска от новата технология.

Предизвикателство е да се дефинира кой е виновен за вреди, породени от устройство или услуга, ръководени от ИИ, при произшествие със самоуправляващ се автомобил. Дали вредите би трябвало да бъдат покрити от притежателя, от производителя на автомобила или от програмиста?

Ако производителят е безусловно свободен от отговорност, може да няма тласък да дава добър артикул или услуга и това да накърни доверието на хората в технологията; само че също по този начин регулациите могат да бъдат прекомерно строги и да задушат нововъведенията.

Екологичен потенциал също по този начин показва риска върху работните места. Очаква се потреблението на ИИ на работното място да докара до премахването на огромен брой служащи. Независимо че ИИ може да сътвори и усъвършенства работни места, образованието и образованието ще имат решаваща роля за попречване на дълготрайната безработица и за обезпечаване на квалифицирана работна мощ.

14% от работните места в страните от Организацията за икономическо сътрудничество и раз са с опция за висока степен на автоматизация, а други 32% биха могли да претърпят обилни промени (оценка на парламентарния мозъчен концерн " Think Tank 2020 " ).

Рискове за публицистиката

Големият брой генеративни ИИ слага под опасност и публицистиката: с изключение на евентуалното увеличаване на подправените вести и дезинформацията, която би трябвало да бива филтрирана и проверявана, ИИ може и непосредствено да наруши работата на медиите.

Пример за това е проблем на „ Гардиън “ с ChatGPT от началото на месеца. Британският вестник получава редица имейли за несъществуващи публикации, които сякаш са били направени от екипа на изданието. След инспекция се открива, че ChatGPT безусловно е правил публикации самичък, когато е бил запитан за източници за избрана информация. Чатботът разполага с толкоз огромна база данни, че без проблем е направил правдиво изглеждаща публикация, изцяло в стила на вестника.

В писмото, което „ Гардиън “ написа по този въпрос, задоволително красноречиво разказва заплахите за медиите.

„ Потенциалните закани за достоверността на новините, компликациите за публицистите и потребителите при инспекцията на видимо правдоподобна информация и съвсем сигурното основаване на безапелационно, само че подправено наличие от недоброжелатели, стават все по-обезпокоителни, колкото повече мислите за тях.

Това е предизвикателство за всички медии. При все по-нарастващата дарба за цифрово генериране на аудио и видео, рискът за репутацията на печатната, онлайн и предаваната публицистика изисква отговор в цялата промишленост. Спешно е издателите и регулаторните органи да се обединят, с цел да договорят най-хубавите практики. “

Отговорът, който самият бот дава на „ Гардиън “, когато бива запитан за подправените публикации също е любопитен.

" Като езиков модел с изкуствен интелект съзнавам рисковете, свързани с генерирането на подправени публикации, и евентуалните вреди, които това може да аргументи. От решаващо значение е обаче да се разбере, че отговорността не е на самата технология, а на тези, които я употребяват. Езиковите модели с изкуствен интелект като мен могат да бъдат мощен инструмент за основаване на информативно и увлекателно наличие, само че е значимо да ги използваме етично и отговорно. Призовавам всички да поемат отговорност за дейностите си и да употребяват ИИ езиковите модели за възстановяване на обществото. "

Като умозаключение може да се види от упоменатите образци големите благоприятни условия на тази технология, само че също по този начин и рисковете, които произтичат от нея. Особено значимо е тя да бъде въвеждана отговорно и да бъде тествана, и е нужно институциите и органите да се приспособяват към новата среда. /БГНЕС

-----------------

Георги Василев, редактор в отдел " Международни вести " на Агенция БГНЕС.

София / България

Източник: bgnes.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР