AI: Колко е лесно да бъдеш измамен
Фил Колинс е доста болен. До него в болничната стая е седнал Пол Маккартни и му свири на китара. С десен захват. „ Снимките “ са съпроводени от покъртителен текст, който споделя за другарството сред двамата музиканти и грижата, която единият поставя за другия.
Ози Осбърн е в ковчега си. Разбираме го от " фотография " пред него, на която лицето на артиста е обърнато в гротескно натъжена мимика. На погребението са най-различни звезди, в това число неизбежният Пол Маккартни с китарата си с десен строй.
Изображения с хора с толкоз изгоряла от слънцето кожа, че наподобява препечена на скара. Текстът гласи, че неотдавна в Пахоки, Флорида се е провело 99-ото издание на обичайния конкурс по слънчево изгаряне. Разбира се, " фотосите " са толкоз неестествени, че не е мъчно да се разбере, че и историята, и съпътстващите фрагменти са изфабрикувани.

Доскоро в обществените мрежи бяха плъзнали изображения на китни къщички или мощно декорирани бунгала със светлинки, свещи, кацнали на скали, на крайбрежия на езера или море, измежду райска природа и събираха десетки хиляди реакции.
Изкуствено генерираните изображения елементарно могат да бъдат употребявани за заблуждение на потребителите в обществените мрежи, а разграничаването им от същинските фотоси става все по-трудно, изключително за нетренираното око и хора с ниска цифрова просветеност.
Защо е толкоз елементарно да бъдем заблудени?
Един от главните проблеми е, че AI моделите се образоват върху големи масиви от данни, включващи милиони действителни изображения. По този метод те се научават да разпознават модели, структури и елементи, което им разрешава да основават образно правдоподобно наличие.
Освен това платформите за генериране на изображения стават все по-достъпни. Инструменти като Midjourney, Stable Diffusion и DALL-E 2 дават опция на всеки да опитва. Тези модели се развиват непрестанно, което усъвършенства качеството на генерираните изображения и прави разликите сред подправеното и същинското съвсем незабележими.

Какво стои зад тези подвеждащи изображения и истории?
Развлечение: Много от тези изображения се основават просто за развлечение. Хората опитват с AI принадлежности, с цел да видят по какъв начин ще наподобява обичаният им воин в необикновена обстановка, или с цел да създадат комичен колаж. Образът на папа Франциск с съвременно яке е добър образец. Създателят ѝ е желал да види по какъв начин ще се оправи изкуственият разсъдък със задачата и резултатът бързо става вайръл.
Социални опити: Някои създатели основават подвеждащи изображения, с цел да тестват до каква степен са податливи хората на дезинформация. Те следят по какъв начин бързо се популяризира подправената вест и какви са реакциите на потребителите.
Политическа дезинформация: Това е една от най-опасните цели. Политически стимулирани групи или човеци употребяват AI, с цел да основават подправени изображения на политици в компрометиращи обстановки, или да инсценират събития, които не са се случили. Целта е да се подкопае доверието в избрана организация или персона, да се повлияе на избори или да се популяризира агитация.
Финансови облаги: Някои хора употребяват подвеждащи изображения, с цел да генерират трафик към уеб страници с реклами. Колкото по-вайръл е наличието, толкоз по-голям е шансът хората да кликнат върху линка и да посетят уеб страницата. Това е елементарен метод за генериране на приходи. И доста неетичен.
Манипулиране на публичното мнение: AI изображенията могат да се употребяват за основаване на несъществуващи „ доказателства “ в поддръжка на избрани изказвания и хрумвания. Това може да бъде обвързвано с всичко – от тайни теории до разпалване на ненавист против избрани обществени групи.

Как се популяризират?
Фалшивите изображения се популяризират толкоз бързо заради няколко аргументи:
Емоционална реакция: Много от тези изображения са основани по този начин, че да провокират мощни страсти – яд, отвращение, смях, затрогване или състрадание. Когато хората изпитат мощна страст, са склонни да споделят наличието, без да ревизират истинността му.
Ехо камери: В обществените мрежи хората са склонни да следват и поддържат връзка с други хора, които имат сходни възгледи. Това основава " ехтене камери ", където подправените вести се популяризират бързо и безрезервно, тъй като " удостоверяват " към този момент съществуващи убеждения.
Липса на цифрова просветеност: Много консуматори към момента не са осведомени с опциите на AI и не знаят по какъв начин да разпознават подправени изображения. Те одобряват това, което виждат, за истина, изключително в случай че се популяризира от техни другари или от източници, на които имат вяра. Важи в по-висока степен за хора, които употребяват цифрови технологии и наблюдават обществени мрежи едвам с всеобщото нахлуване на смарт телефоните и нямат опита на познаването на цифровите изображения в предходните години и детайлите, които ги отличават от действителни фотоси.
Как да разпознаваме AI генерирани изображения?
Въпреки че AI моделите стават все по-добри, към момента има някои характерни недостатъци, по които можем да разпознаем подправените изображения.
Аномалии в ръцете и пръстите: Това е един от най-честите провали на AI. Търсете ръце с прекомерно доста или прекомерно малко пръсти, деформирани длани или неестествени пози.
Неестествена симетричност и елементи: Лицата в генерираните изображения постоянно са прекомерно симетрични, а зъбите и очите наподобяват идентични. Наблюдавайте за странни текстури, изкуствен искра на кожата или косата, и повтарящи се детайли на назад във времето.
Нелогични детайли и физически закони: AI моделите от време на време не схващат физиката на действителния свят. Потърсете сенки, които не подхождат на източника на светлина, обекти, които не се държат разумно, или текст, който е размазан или изписан погрешно.
Дефекти: Понякога може да забележите странни петна, размазване на избрани елементи от изображението или други дребни недостатъци, които са резултат от процеса на генериране.

Инструменти и техники за инспекция
Допълнително търсене на изображение: Един от най-лесните способи е да употребявате принадлежности като Гугъл Lens или TinEye. Качете изображението и проверете дали към този момент е било оповестено в различен подтекст или от различен източник. Ако не се появи, това може да е знак за генерирано наличие.
Специализирани AI детектори: Вече съществуват разнообразни онлайн принадлежности, които употребяват AI, с цел да проучват изображенията и да дефинират дали са основани от изкуствен интелект. Те търсят микроскопични аномалии в пикселите и други признаци, които са невидими за човешкото око.
Метаданни: Метаданните на една фотография съдържат информация за камерата, датата и мястото на снимане. AI генерираните изображения нямат такава информация, което е мощен знак.
Ограничаване на податливостта
Критично мислене и прочувствен надзор: Не се поддавайте на страстите, които провокира обещано изображение. Когато видите нещо, което наподобява прекомерно необикновено или провокира мощна реакция (възмущение, боязън, съпричастност), спрете и се замислете, преди да го споделите.
Проверка на източника: Кой е разгласил изображението? Известен и благонадежден източник ли е, или е неизвестен профил? Проверете дали същата информация е споделена и от други, достоверни медии.
Медийна просветеност: Запознайте се с главните правила на работа на AI и с това по какъв начин то може да се употребява за основаване на подправено наличие. Колкото повече знаете за технологията, толкоз по-трудно ще бъде да ви заблудят.
Ози Осбърн е в ковчега си. Разбираме го от " фотография " пред него, на която лицето на артиста е обърнато в гротескно натъжена мимика. На погребението са най-различни звезди, в това число неизбежният Пол Маккартни с китарата си с десен строй.
Изображения с хора с толкоз изгоряла от слънцето кожа, че наподобява препечена на скара. Текстът гласи, че неотдавна в Пахоки, Флорида се е провело 99-ото издание на обичайния конкурс по слънчево изгаряне. Разбира се, " фотосите " са толкоз неестествени, че не е мъчно да се разбере, че и историята, и съпътстващите фрагменти са изфабрикувани.
Доскоро в обществените мрежи бяха плъзнали изображения на китни къщички или мощно декорирани бунгала със светлинки, свещи, кацнали на скали, на крайбрежия на езера или море, измежду райска природа и събираха десетки хиляди реакции.
Изкуствено генерираните изображения елементарно могат да бъдат употребявани за заблуждение на потребителите в обществените мрежи, а разграничаването им от същинските фотоси става все по-трудно, изключително за нетренираното око и хора с ниска цифрова просветеност.
Защо е толкоз елементарно да бъдем заблудени?
Един от главните проблеми е, че AI моделите се образоват върху големи масиви от данни, включващи милиони действителни изображения. По този метод те се научават да разпознават модели, структури и елементи, което им разрешава да основават образно правдоподобно наличие.
Освен това платформите за генериране на изображения стават все по-достъпни. Инструменти като Midjourney, Stable Diffusion и DALL-E 2 дават опция на всеки да опитва. Тези модели се развиват непрестанно, което усъвършенства качеството на генерираните изображения и прави разликите сред подправеното и същинското съвсем незабележими.
Какво стои зад тези подвеждащи изображения и истории?
Развлечение: Много от тези изображения се основават просто за развлечение. Хората опитват с AI принадлежности, с цел да видят по какъв начин ще наподобява обичаният им воин в необикновена обстановка, или с цел да създадат комичен колаж. Образът на папа Франциск с съвременно яке е добър образец. Създателят ѝ е желал да види по какъв начин ще се оправи изкуственият разсъдък със задачата и резултатът бързо става вайръл.
Социални опити: Някои създатели основават подвеждащи изображения, с цел да тестват до каква степен са податливи хората на дезинформация. Те следят по какъв начин бързо се популяризира подправената вест и какви са реакциите на потребителите.
Политическа дезинформация: Това е една от най-опасните цели. Политически стимулирани групи или човеци употребяват AI, с цел да основават подправени изображения на политици в компрометиращи обстановки, или да инсценират събития, които не са се случили. Целта е да се подкопае доверието в избрана организация или персона, да се повлияе на избори или да се популяризира агитация.
Финансови облаги: Някои хора употребяват подвеждащи изображения, с цел да генерират трафик към уеб страници с реклами. Колкото по-вайръл е наличието, толкоз по-голям е шансът хората да кликнат върху линка и да посетят уеб страницата. Това е елементарен метод за генериране на приходи. И доста неетичен.
Манипулиране на публичното мнение: AI изображенията могат да се употребяват за основаване на несъществуващи „ доказателства “ в поддръжка на избрани изказвания и хрумвания. Това може да бъде обвързвано с всичко – от тайни теории до разпалване на ненавист против избрани обществени групи.
Как се популяризират?
Фалшивите изображения се популяризират толкоз бързо заради няколко аргументи:
Емоционална реакция: Много от тези изображения са основани по този начин, че да провокират мощни страсти – яд, отвращение, смях, затрогване или състрадание. Когато хората изпитат мощна страст, са склонни да споделят наличието, без да ревизират истинността му.
Ехо камери: В обществените мрежи хората са склонни да следват и поддържат връзка с други хора, които имат сходни възгледи. Това основава " ехтене камери ", където подправените вести се популяризират бързо и безрезервно, тъй като " удостоверяват " към този момент съществуващи убеждения.
Липса на цифрова просветеност: Много консуматори към момента не са осведомени с опциите на AI и не знаят по какъв начин да разпознават подправени изображения. Те одобряват това, което виждат, за истина, изключително в случай че се популяризира от техни другари или от източници, на които имат вяра. Важи в по-висока степен за хора, които употребяват цифрови технологии и наблюдават обществени мрежи едвам с всеобщото нахлуване на смарт телефоните и нямат опита на познаването на цифровите изображения в предходните години и детайлите, които ги отличават от действителни фотоси.
Как да разпознаваме AI генерирани изображения?
Въпреки че AI моделите стават все по-добри, към момента има някои характерни недостатъци, по които можем да разпознаем подправените изображения.
Аномалии в ръцете и пръстите: Това е един от най-честите провали на AI. Търсете ръце с прекомерно доста или прекомерно малко пръсти, деформирани длани или неестествени пози.
Неестествена симетричност и елементи: Лицата в генерираните изображения постоянно са прекомерно симетрични, а зъбите и очите наподобяват идентични. Наблюдавайте за странни текстури, изкуствен искра на кожата или косата, и повтарящи се детайли на назад във времето.
Нелогични детайли и физически закони: AI моделите от време на време не схващат физиката на действителния свят. Потърсете сенки, които не подхождат на източника на светлина, обекти, които не се държат разумно, или текст, който е размазан или изписан погрешно.
Дефекти: Понякога може да забележите странни петна, размазване на избрани елементи от изображението или други дребни недостатъци, които са резултат от процеса на генериране.
Инструменти и техники за инспекция
Допълнително търсене на изображение: Един от най-лесните способи е да употребявате принадлежности като Гугъл Lens или TinEye. Качете изображението и проверете дали към този момент е било оповестено в различен подтекст или от различен източник. Ако не се появи, това може да е знак за генерирано наличие.
Специализирани AI детектори: Вече съществуват разнообразни онлайн принадлежности, които употребяват AI, с цел да проучват изображенията и да дефинират дали са основани от изкуствен интелект. Те търсят микроскопични аномалии в пикселите и други признаци, които са невидими за човешкото око.
Метаданни: Метаданните на една фотография съдържат информация за камерата, датата и мястото на снимане. AI генерираните изображения нямат такава информация, което е мощен знак.
Ограничаване на податливостта
Критично мислене и прочувствен надзор: Не се поддавайте на страстите, които провокира обещано изображение. Когато видите нещо, което наподобява прекомерно необикновено или провокира мощна реакция (възмущение, боязън, съпричастност), спрете и се замислете, преди да го споделите.
Проверка на източника: Кой е разгласил изображението? Известен и благонадежден източник ли е, или е неизвестен профил? Проверете дали същата информация е споделена и от други, достоверни медии.
Медийна просветеност: Запознайте се с главните правила на работа на AI и с това по какъв начин то може да се употребява за основаване на подправено наличие. Колкото повече знаете за технологията, толкоз по-трудно ще бъде да ви заблудят.
Източник: frognews.bg
КОМЕНТАРИ




