В ерата на перфектната илюзия: Става все по-трудно да разграничим AI-генерираното съдържание от реалното
Доскоро изкуственият разсъдък оставя следи, по които елементарно можехме да познаем, че едно изображение не е основано от човек. По-старите версии на генеративните AI технологии постоянно добавяха по един непотребен пръст или спомагателен крак.
Зъбите изглеждаха странни и неестествени, кожата беше прекомерно розова – като в анимационен филм на Pixar. Моделите мъчно се ориентираха в триизмерното пространство и постоянно не се справяха с разумното показване на физическия свят. Ако ги помолехте да ви генерират фотография на сьомга, плуваща в река, те можеха да ви покажат парче сорова сьомга, което се носи по течението.
Да, това сигурно беше „ долината на зловонието “ – странната граница сред действителното и изкуственото. Но най-малко знаехме, че се намираме някъде там.
Но през днешния ден нещата стоят по друг метод. Въпреки че към момента има някои аналогови способи да се открие дали обещано наличие е генерирано от изкуствен интелект, образните „ подсказки “ последователно избледняват – и даже изчезват.
Ограниченото стартиране на Sora 2 – най-новият модел за видео от OpenAI – сигурно доста форсира този развой, споделят специалисти от няколко компании за разкриване на фалшификации.
Това значи, че скоро може изцяло да бъдем подвластни от цифрови принадлежности, с цел да разграничаваме действителното от генерираното, твърди Fast Company.
Последиците от това са съществени – освен за елементарните консуматори в интернет, само че и за институциите, които би трябвало да пазят името или образа си от корист.
„ Дори за анализатори като мен, които непрекъснато наблюдават развиването на тази промишленост, става извънредно мъчно – изключително при изображенията “, споделя Франческо Кавали, съосновател на компанията Sensity AI, пред Fast Company. „ Формите, цветовете, хората – всичко към този момент наподобява съвършено. Без помощта на специфичен инструмент към този момент е съвсем невероятно за средностатистическия консуматор в интернет да разбере дали едно изображение, видео или аудио е генерирано от изкуствен интелект. “
Добрата вест е, че все още към момента са налице някои разпознаваеми белези, които могат да ни подскажат, че обещано наличие е генерирано благодарение на изкуствен интелект. Изследователите не престават да търсят нови. Въпреки че „ спомагателните пръсти “ към този момент са съвсем изчезнали, AI моделите към момента изпитват усложнения с изписването на текст, изяснява София Рубинсън, старши редактор в Reality Check – издание на компанията NewsGuard, която се занимава с инспекция на достоверността на информацията.
„ Помните ли това видео със зайчета, които подскачат на батут, което се оказа подправено? “, споделя тя. „ Понякога просто би трябвало да си зададете въпроса – в действителност ли зайците вършат това? “
Рубинсън прибавя, че от време на време може да се забележи дали част от видеото е замъглена – това може да е било мястото, където се е намирал водния знак на Sora 2. Също по този начин е потребно да се ревизира кой е разгласил клипа. Ако отворите страницата на акаунта и видите куп сходни видеа, евентуално гледате наличие, генерирано от AI.
Но имената на профилите не всеки път са надеждни – някои хора си записват потребителски имена в Sora 2, свързани с известни персони, макар разпоредбите на OpenAI, които не разрешават потреблението на непознати облици.
В последна сметка ще би трябвало да се научим да разпознаваме „ стила “ и особеностите на всеки друг модел, счита Сивей Лю, професор в Държавния университет на Ню Йорк в Бъфало, който изследва дийпфейк наличие.
Например, гласовете, генерирани от Sora 2, от време на време звучат прекомерно бързо – феномен, който някои към този момент назовават „ AI акцент “. Но съгласно Лю тези признаци са доста фини и елементарно се пропущат при нормално гледане.
И защото технологиите непрестанно се усъвършенстват, даже тези следи евентуално скоро изцяло ще изчезнат. „ С всеки нов модел изчезват типичните образни несъответствия, по които преди разпознавахме AI “, споделя Еманюел Салиба, някогашна журналистка, която в този момент управлява отдела за следствия в GetReal Security – компания, профилирана в разкриване на манипулирано цифрово наличие.
Докато по-старите модели постоянно демонстрират неестествени придвижвания, Sora 2 към този момент ги имитира съвсем напълно.
Експертите към този момент се объркват
В компанията Reality Defender, която също се занимава с разкриване на дийпфейкове, всички откриватели – даже тези с докторски степени – към този момент са били заблуждавани от новите модели.
„ Откакто Sora беше пусната, всеки един от тях е объркал действително наличие с подправено или противоположното “, признава Бен Колман, съосновател и основен изпълнителен шеф на Reality Defender.
„ Ако хора, които се занимават с това сред 5 и 25 години, не могат да създадат разликата, по какъв начин можем да чакаме това от елементарните консуматори? “
Водните знаци също не са избавление
Много компании популяризират „ водните знаци “ като метод за обозначаване на AI наличие, само че се оказва, че има лесни способи те да бъдат отстранени.
Например, видеата, основани със Sora от OpenAI, имат образен воден знак, който може да бъде отстранен с онлайн принадлежности. OpenAI, както и други компании, употребява стандарта C2PA, основан от Coalition for Content Provenance and Authenticity, който записва източника на обещано наличие в неговите метаданни. Но, както демонстрират проби извършени от Fast Company, този воден знак може да изчезне в случай че просто извършите скрийншот или плъзнете изображението на друго място.
OpenAI признава казуса, само че твърди, че не може да възпроизведе всички неточности. Adobe, която поддържа системата за верификация на C2PA, показва, че казусът е в технологията на OpenAI.
Компаниите, интервюирани от Fast Company, естествено имат интерес да продават принадлежности за отбрана от дийпфейк наличие.
Някои от тях имат вяра, че откриването на наличие генерирано с изкуствен интелект ще стане нещо като отбраната от вируси – вградено в браузъри, приложения и корпоративни системи.
Други са на мнението, че техните платформи ще бъдат нужни, тъй като новите генеративни модели от рода на Sora 2 ще създадат видеоразпознаването съвсем безсмислено.
В отговор на стартирането на Sora, някои компании към този момент регистрират възходящ интерес. Но и те самите би трябвало да обновяват методите си при всяка нова версия на технологията.
„ Дори когато индивидът не може да забележи нищо, от техническа позиция постоянно има нещо, което може да се изследва “, споделя Кавали от Sensity.
Това включва разбор на метаданни, звуков декор и други несъответствия. Sensity непрекъснато пренастройва своите модели за разкриване, когато се появи нов генеративен модел.
Дори и по този начин, системите не са съвършени.
Лю от университета в Бъфало споделя, че логаритмите, създадени от неговия екип, към момента работят върху видеа, основани със Sora 2, само че с по-ниска акуратност. И това е след в допълнение конфигуриране.
Хани Фарид, професор от Бъркли и съосновател на GetReal Security, изяснява, че техните техники дават „ по-добри, само че не и съвършени “ резултати. При Sora 2 някои способи за видеоанализ не престават да работят, до момента в който други изискват акомодация. Към момента разпознаването на аудио остава по-надеждния способ.
В предишното цифровите методите за цифровите следствия е трябвало непрекъснато да бъдат актуализират за всеки нов модел. Днес обаче излиза наяве, че AI се учи по-бързо, в сравнение с хората могат да построяват отбрана против него.
Зъбите изглеждаха странни и неестествени, кожата беше прекомерно розова – като в анимационен филм на Pixar. Моделите мъчно се ориентираха в триизмерното пространство и постоянно не се справяха с разумното показване на физическия свят. Ако ги помолехте да ви генерират фотография на сьомга, плуваща в река, те можеха да ви покажат парче сорова сьомга, което се носи по течението.
Да, това сигурно беше „ долината на зловонието “ – странната граница сред действителното и изкуственото. Но най-малко знаехме, че се намираме някъде там.
Но през днешния ден нещата стоят по друг метод. Въпреки че към момента има някои аналогови способи да се открие дали обещано наличие е генерирано от изкуствен интелект, образните „ подсказки “ последователно избледняват – и даже изчезват.
Ограниченото стартиране на Sora 2 – най-новият модел за видео от OpenAI – сигурно доста форсира този развой, споделят специалисти от няколко компании за разкриване на фалшификации.
Това значи, че скоро може изцяло да бъдем подвластни от цифрови принадлежности, с цел да разграничаваме действителното от генерираното, твърди Fast Company.
Последиците от това са съществени – освен за елементарните консуматори в интернет, само че и за институциите, които би трябвало да пазят името или образа си от корист.
„ Дори за анализатори като мен, които непрекъснато наблюдават развиването на тази промишленост, става извънредно мъчно – изключително при изображенията “, споделя Франческо Кавали, съосновател на компанията Sensity AI, пред Fast Company. „ Формите, цветовете, хората – всичко към този момент наподобява съвършено. Без помощта на специфичен инструмент към този момент е съвсем невероятно за средностатистическия консуматор в интернет да разбере дали едно изображение, видео или аудио е генерирано от изкуствен интелект. “
Добрата вест е, че все още към момента са налице някои разпознаваеми белези, които могат да ни подскажат, че обещано наличие е генерирано благодарение на изкуствен интелект. Изследователите не престават да търсят нови. Въпреки че „ спомагателните пръсти “ към този момент са съвсем изчезнали, AI моделите към момента изпитват усложнения с изписването на текст, изяснява София Рубинсън, старши редактор в Reality Check – издание на компанията NewsGuard, която се занимава с инспекция на достоверността на информацията.
„ Помните ли това видео със зайчета, които подскачат на батут, което се оказа подправено? “, споделя тя. „ Понякога просто би трябвало да си зададете въпроса – в действителност ли зайците вършат това? “
Рубинсън прибавя, че от време на време може да се забележи дали част от видеото е замъглена – това може да е било мястото, където се е намирал водния знак на Sora 2. Също по този начин е потребно да се ревизира кой е разгласил клипа. Ако отворите страницата на акаунта и видите куп сходни видеа, евентуално гледате наличие, генерирано от AI.
Но имената на профилите не всеки път са надеждни – някои хора си записват потребителски имена в Sora 2, свързани с известни персони, макар разпоредбите на OpenAI, които не разрешават потреблението на непознати облици.
В последна сметка ще би трябвало да се научим да разпознаваме „ стила “ и особеностите на всеки друг модел, счита Сивей Лю, професор в Държавния университет на Ню Йорк в Бъфало, който изследва дийпфейк наличие.
Например, гласовете, генерирани от Sora 2, от време на време звучат прекомерно бързо – феномен, който някои към този момент назовават „ AI акцент “. Но съгласно Лю тези признаци са доста фини и елементарно се пропущат при нормално гледане.
И защото технологиите непрестанно се усъвършенстват, даже тези следи евентуално скоро изцяло ще изчезнат. „ С всеки нов модел изчезват типичните образни несъответствия, по които преди разпознавахме AI “, споделя Еманюел Салиба, някогашна журналистка, която в този момент управлява отдела за следствия в GetReal Security – компания, профилирана в разкриване на манипулирано цифрово наличие.
Докато по-старите модели постоянно демонстрират неестествени придвижвания, Sora 2 към този момент ги имитира съвсем напълно.
Експертите към този момент се объркват
В компанията Reality Defender, която също се занимава с разкриване на дийпфейкове, всички откриватели – даже тези с докторски степени – към този момент са били заблуждавани от новите модели.
„ Откакто Sora беше пусната, всеки един от тях е объркал действително наличие с подправено или противоположното “, признава Бен Колман, съосновател и основен изпълнителен шеф на Reality Defender.
„ Ако хора, които се занимават с това сред 5 и 25 години, не могат да създадат разликата, по какъв начин можем да чакаме това от елементарните консуматори? “
Водните знаци също не са избавление
Много компании популяризират „ водните знаци “ като метод за обозначаване на AI наличие, само че се оказва, че има лесни способи те да бъдат отстранени.
Например, видеата, основани със Sora от OpenAI, имат образен воден знак, който може да бъде отстранен с онлайн принадлежности. OpenAI, както и други компании, употребява стандарта C2PA, основан от Coalition for Content Provenance and Authenticity, който записва източника на обещано наличие в неговите метаданни. Но, както демонстрират проби извършени от Fast Company, този воден знак може да изчезне в случай че просто извършите скрийншот или плъзнете изображението на друго място.
OpenAI признава казуса, само че твърди, че не може да възпроизведе всички неточности. Adobe, която поддържа системата за верификация на C2PA, показва, че казусът е в технологията на OpenAI.
Компаниите, интервюирани от Fast Company, естествено имат интерес да продават принадлежности за отбрана от дийпфейк наличие.
Някои от тях имат вяра, че откриването на наличие генерирано с изкуствен интелект ще стане нещо като отбраната от вируси – вградено в браузъри, приложения и корпоративни системи.
Други са на мнението, че техните платформи ще бъдат нужни, тъй като новите генеративни модели от рода на Sora 2 ще създадат видеоразпознаването съвсем безсмислено.
В отговор на стартирането на Sora, някои компании към този момент регистрират възходящ интерес. Но и те самите би трябвало да обновяват методите си при всяка нова версия на технологията.
„ Дори когато индивидът не може да забележи нищо, от техническа позиция постоянно има нещо, което може да се изследва “, споделя Кавали от Sensity.
Това включва разбор на метаданни, звуков декор и други несъответствия. Sensity непрекъснато пренастройва своите модели за разкриване, когато се появи нов генеративен модел.
Дори и по този начин, системите не са съвършени.
Лю от университета в Бъфало споделя, че логаритмите, създадени от неговия екип, към момента работят върху видеа, основани със Sora 2, само че с по-ниска акуратност. И това е след в допълнение конфигуриране.
Хани Фарид, професор от Бъркли и съосновател на GetReal Security, изяснява, че техните техники дават „ по-добри, само че не и съвършени “ резултати. При Sora 2 някои способи за видеоанализ не престават да работят, до момента в който други изискват акомодация. Към момента разпознаването на аудио остава по-надеждния способ.
В предишното цифровите методите за цифровите следствия е трябвало непрекъснато да бъдат актуализират за всеки нов модел. Днес обаче излиза наяве, че AI се учи по-бързо, в сравнение с хората могат да построяват отбрана против него.
Източник: profit.bg
КОМЕНТАРИ




