До 2025 г. качеството на дийпфейковете – създадени с помощта

...
До 2025 г. качеството на дийпфейковете – създадени с помощта
Коментари Харесай

Дийпфейковете вече почти са неразличими от реалността и положението само ще се влошава

До 2025 година качеството на дийпфейковете – основани благодарение на изкуствен интелект медия файлове – се е подобрило доста. Лицата, гласовете и придвижванията на тялото, генерирани от изкуствения разсъдък за подражаване на действителни хора, надминаха упованията на доста експерти; тези материали все по-често се употребяват за илюзия на хората, предизвестява Gizmodo.

В доста ежедневни обстановки, без значение дали става въпрос за видео диалози с ниска резолюция или медийно наличие в обществените мрежи, качеството на дийпфейковете, задвижвани от изкуствен интелект, към този момент е задоволително високо, с цел да заблудят елементарните хора, които не са специалисти. Ръстът на дийпфейковете не се лимитира единствено до качеството: през 2023 година е имало 500 000 такива материали, а до края на 2025 година ще има към 8 милиона, съгласно DeepStrike, с ритъм на напредък от към 900% годишно.

Няколко механически пробива способстваха за трагичното нарастване на продуктивността. Първо, генерираните от изкуствен интелект фрагменти се характеризират с времева поредност: хората в фрагмента се движат реалистично, елементарно са разпознаваеми и наличието на видеото остава свястно във всеки кадър. Моделите разделят информацията, обвързвана с представянето на самоличността на човек — от информацията, обвързвана с придвижването: едно и също придвижване може да бъде обвързвано с разнообразни самоличности, а една и съща идентичност – с голям брой типове придвижвания. Изображенията на лицата не трептят, не се изкривяват и не демонстрират деформациите, които преди този момент бяха явен знак за дийпфейк.

Второ, качеството на клонирането на гласа към този момент е надминало стандартния предел на неразличимост. Няколко секунди са задоволителни, с цел да се сътвори безапелационна реплика на глас – клонингът ще има естествена интонация, темп, акцент, страст, паузи и даже дихателни звуци. Това дава необятни благоприятни условия за огромна машинация. Субективните сигнали, които преди този момент издаваха синтетичните гласове, значително са изчезнали.

Трето, техническата преграда пред потреблението на генератори на наличие е понижена до съвсем нула. С OpenAI Sora 2 и Гугъл Veo 3, както и моделите от някои стартъп компании, всеки може да формулира концепция, да сътвори обстоен скрипт, употребявайки OpenAI ChatGPT или Гугъл Gemini, и да генерира висококачествено наличие за минути. Целият развой може да бъде автоматизиран благодарение на AI-агенти. В резултат на това, опцията за основаване на съгласувани дийпфейкове с разкази в огромен мащаб към този момент е демократизирана.

2

Откриването на неразличимите от действителните хора дийпфейкове в обществените медии става все по-трудно, изключително откакто вниманието на потребителите в тези платформи към този момент е фрагментирано, а материалите се популяризират по-бързо, в сравнение с могат да бъдат тествани. Дийпфейковете се употребяват за дезинформация, тормоз и финансови измами, оставяйки хората в незнание за протичащото се.

Траекторията за идната година наподобява ясна: дийпфейковете се насочват към генериране на наличие в действително време. Видеата тъкмо имитират нюансите на външния тип на човек и са способни да заобикалят системите за разкриване. Границата се измества от неподвижен образен натурализъм към неизменност във времето и държанието — наличието ще се появява в действително време и авансово рендираните клипове към този момент няма да са задоволителни. Резултатът ще надвиши елементарното човешко различаване —- персонажите във видеоклиповете ще се държат като действителните си еквиваленти. Участниците във видео диалозите ще бъдат синтезирани в действително време – техните лица, гласове и обноски ще се приспособяват незабавно към поръчките и вместо записани видеоклипове, измамниците ще демонстрират на жертвите си тези ИИ-аватари.

Субективното усещане към този момент няма да оказва помощ на хората да се предпазят от сходни дийпфейкове; ще са нужни механически ограничения за отбрана, като да вземем за пример криптографски подписи на достоверните материали и маркировка на средствата за ИИ-редактиране. Внимателното изследване на изображението на равнище пиксел може към този момент да не е задоволително.

(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `
Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР