„Платен съм, за да съм тук“ – но не и в действителност. Дезинформ...
Това са част от нещата, които не се случват по улиците на Лос Анджелис тази седмица. Но може и да си помислите, че се случват — в случай че се информирате посредством изкуствен интелект, написа The Independent.
Вирусно разпространяване на имитации, основани с AI
Фалшиви видеа, фотоси и „ обстоятелства “ за продължаващите митинги в Лос Анджелис, основани с изкуствен интелект, се популяризират мълниеносно в обществените мрежи — изключително в обществената платформа X (бившият Twitter), благосъстоятелност на Илон Мъск.
Създадени посредством свободно наличен програмен продукт за видео- и изображение-генериране, тези изцяло синтетични фрагменти от отвращение нормално удостоверяват авансово действителен роман за митингите — да вземем за пример, безпочвената концепция, че те са скрито финансирани и снабдени от външни сили.
И въпреки някои да са механически обозначени като пародии, доста консуматори не виждат тези разяснения и одобряват реалистично изглеждащото наличие за същински фрагменти от мястото на събитията.
Примери за подправени видеа
„ Здравейте всички! Боб от Националната армия съм. Останете на линия – ще ви покажа по какъв начин приготвяме оборудването си за преодоляване на тълпи преди днешното обгазяване “, споделя симулиран боец във вирусно TikTok видео, което бе опровергано от France24.
„ Екипче! Боб отново съм, това е полуда! Хвърлят по нас балони с олио, вижте! “, продължава той.
Друго подправено видео, оповестено в X, демонстрира мъж-инфлуенсър с прекомерно чиста тениска измежду яростни конфликти. „ Защо се бунтуваш? “ — пита той маскиран човек. „ Не знам, заплатиха ми да съм тук и просто желая да чупя неща “ — дава отговор мнимият протестиращ.
AI ревизира самичък себе си — и бърка
Междувременно чатботове като ChatGPT на OpenAI и Grok (вграден в X) дават неверна информация в отговор на въпроси за събитията в Лос Анджелис.
И двата бота неправилно настояват, че фотосите с бойци от Националната армия, спящи на пода в Лос Анджелис тази седмица, „ евентуално произлизат “ от Афганистан през 2021 година, съгласно CBS News.
Също по този начин, съгласно същото издание, AI твърди, че вирусна фотография на палет с тухли — представяна от десни дезинформационни източници като „ доказателство за външно финансиране “ — е направена по време на митингите в ЛА. В реалност, фотографията е от улица в Ню Джърси, само че даже откакто ботовете са поправени, не престават да упорстват за своята версия.
Старо оръжие с нови средства
AI-фалшификатите са единствено нов инструмент в добре познатата оркестра на дезинформацията. Рециклирани фотоси от остарели митинги, изображения отвън подтекст или даже фрагменти от видеоигри — всичко това се употребява всеобщо от търговците на отвращение най-малко от 2020 година насам. Сред разпространителите им е и сенаторът републиканец Тед Круз, който има дълга история с сходни изявления.
„ Дронове-хищници “ и културната война
В същото време се популяризират и клюки, че граничната работа (CBP) употребява дронове-хищници за наблюдаване на протестиращи в Лос Анджелис.
„ Снимките постоянно са могли да се манипулират — това го знаем от дълго време “, споделя Джеймс Коен, професор по медийна просветеност в Queens College (CUNY), пред Politico.
„ Но при видеата... като общество сме привикнали да им имаме вяра. Досега нямахме причина да мислим, че видеа могат да бъдат фалшифицирани в подобен мащаб “.
Фалшификати за дясната и за лявата аудитория
Повечето от прегледаните от The Independent видеа очевидно са ориентирани към консервативна аудитория — целят да засилят десни послания. Но най-малко един TikTok акаунт с над 300 000 гледания към сряда вечерта е ориентиран към прогресивна публика, внушавайки взаимност с имигрантите.
Някои видеа са явни смешки. Други са нееднозначно шеговити. Често има етикет, че видеото е генерирано с AI, само че в множеството случаи тази значима информация елементарно се пропуща.
Законова обсада на регулациите
За страдание, казусът евентуално ще се утежни. Основен законопроект на републиканците — „ Големият Красив Закон “ — включва мораториум върху всякаква държавна регулация на AI, което ще забрани интервенция от страна на щатските държавни управления за период от 10 години.
Как да разпознаем фалшификат
Въпреки че AI-видеата от време на време наподобяват изцяло действителни, има способи да ги разпознаем. Обикновено са съмнително гладки и лъскави, като че ли произлизат от същата стилизирана галактика като фамозната реклама на Pepsi с Кендъл Дженър. Герои във видеата постоянно са неестествено красиви, като че ли основани от колаж от фешън фотосесии.
Better Business Bureau предлага да се вглеждаме в елементи като пръсти и копчета, които постоянно не наподобяват реалистично. Надписите също постоянно са нечетливи — комбинация от букви или фалшификати на букви.
Фоновите фигури може да се държат необичайно, да се повтарят или да се движат по физически неосъществим метод. Ако се съмнявате — потърсете информация в надеждни медии или при одобрени публицисти.
Най-важният съвет: внимавайте с потвърждаващото користолюбие
Най-вече — внимавайте с видеа, които „ съвършено “ удостоверяват към този момент съществуващите ви убеждения. Възможно е просто да са прекомерно положителни, с цел да са истина.
Вирусно разпространяване на имитации, основани с AI
Фалшиви видеа, фотоси и „ обстоятелства “ за продължаващите митинги в Лос Анджелис, основани с изкуствен интелект, се популяризират мълниеносно в обществените мрежи — изключително в обществената платформа X (бившият Twitter), благосъстоятелност на Илон Мъск.
Създадени посредством свободно наличен програмен продукт за видео- и изображение-генериране, тези изцяло синтетични фрагменти от отвращение нормално удостоверяват авансово действителен роман за митингите — да вземем за пример, безпочвената концепция, че те са скрито финансирани и снабдени от външни сили.
И въпреки някои да са механически обозначени като пародии, доста консуматори не виждат тези разяснения и одобряват реалистично изглеждащото наличие за същински фрагменти от мястото на събитията.
Примери за подправени видеа
„ Здравейте всички! Боб от Националната армия съм. Останете на линия – ще ви покажа по какъв начин приготвяме оборудването си за преодоляване на тълпи преди днешното обгазяване “, споделя симулиран боец във вирусно TikTok видео, което бе опровергано от France24.
„ Екипче! Боб отново съм, това е полуда! Хвърлят по нас балони с олио, вижте! “, продължава той.
Друго подправено видео, оповестено в X, демонстрира мъж-инфлуенсър с прекомерно чиста тениска измежду яростни конфликти. „ Защо се бунтуваш? “ — пита той маскиран човек. „ Не знам, заплатиха ми да съм тук и просто желая да чупя неща “ — дава отговор мнимият протестиращ.
AI ревизира самичък себе си — и бърка
Междувременно чатботове като ChatGPT на OpenAI и Grok (вграден в X) дават неверна информация в отговор на въпроси за събитията в Лос Анджелис.
И двата бота неправилно настояват, че фотосите с бойци от Националната армия, спящи на пода в Лос Анджелис тази седмица, „ евентуално произлизат “ от Афганистан през 2021 година, съгласно CBS News.
Също по този начин, съгласно същото издание, AI твърди, че вирусна фотография на палет с тухли — представяна от десни дезинформационни източници като „ доказателство за външно финансиране “ — е направена по време на митингите в ЛА. В реалност, фотографията е от улица в Ню Джърси, само че даже откакто ботовете са поправени, не престават да упорстват за своята версия.
Старо оръжие с нови средства
AI-фалшификатите са единствено нов инструмент в добре познатата оркестра на дезинформацията. Рециклирани фотоси от остарели митинги, изображения отвън подтекст или даже фрагменти от видеоигри — всичко това се употребява всеобщо от търговците на отвращение най-малко от 2020 година насам. Сред разпространителите им е и сенаторът републиканец Тед Круз, който има дълга история с сходни изявления.
„ Дронове-хищници “ и културната война
В същото време се популяризират и клюки, че граничната работа (CBP) употребява дронове-хищници за наблюдаване на протестиращи в Лос Анджелис.
„ Снимките постоянно са могли да се манипулират — това го знаем от дълго време “, споделя Джеймс Коен, професор по медийна просветеност в Queens College (CUNY), пред Politico.
„ Но при видеата... като общество сме привикнали да им имаме вяра. Досега нямахме причина да мислим, че видеа могат да бъдат фалшифицирани в подобен мащаб “.
Фалшификати за дясната и за лявата аудитория
Повечето от прегледаните от The Independent видеа очевидно са ориентирани към консервативна аудитория — целят да засилят десни послания. Но най-малко един TikTok акаунт с над 300 000 гледания към сряда вечерта е ориентиран към прогресивна публика, внушавайки взаимност с имигрантите.
Някои видеа са явни смешки. Други са нееднозначно шеговити. Често има етикет, че видеото е генерирано с AI, само че в множеството случаи тази значима информация елементарно се пропуща.
Законова обсада на регулациите
За страдание, казусът евентуално ще се утежни. Основен законопроект на републиканците — „ Големият Красив Закон “ — включва мораториум върху всякаква държавна регулация на AI, което ще забрани интервенция от страна на щатските държавни управления за период от 10 години.
Как да разпознаем фалшификат
Въпреки че AI-видеата от време на време наподобяват изцяло действителни, има способи да ги разпознаем. Обикновено са съмнително гладки и лъскави, като че ли произлизат от същата стилизирана галактика като фамозната реклама на Pepsi с Кендъл Дженър. Герои във видеата постоянно са неестествено красиви, като че ли основани от колаж от фешън фотосесии.
Better Business Bureau предлага да се вглеждаме в елементи като пръсти и копчета, които постоянно не наподобяват реалистично. Надписите също постоянно са нечетливи — комбинация от букви или фалшификати на букви.
Фоновите фигури може да се държат необичайно, да се повтарят или да се движат по физически неосъществим метод. Ако се съмнявате — потърсете информация в надеждни медии или при одобрени публицисти.
Най-важният съвет: внимавайте с потвърждаващото користолюбие
Най-вече — внимавайте с видеа, които „ съвършено “ удостоверяват към този момент съществуващите ви убеждения. Възможно е просто да са прекомерно положителни, с цел да са истина.
Източник: frognews.bg
КОМЕНТАРИ




