15 съвета как да разпознаем deepfake видео
Сподели
Изкуственият разсъдък е във напредък през последните няколко години и е явно, че той ще промени радикално живота на всички хора на планетата. Причината е, че съвсем няма да остане незасегната сфера от живота ни, в която технологията няма да господства.
Към момента изкуствен интелект оказва помощ в доста действия. Той е потребен да вземем за пример при и разчитането на текстове от документи, които с годините са се увредили. Технологиите, основани на изкуствен интелект ловко се употребяват в администрирането на процеси, изключително в региона на услугите.
Вероятно към този момент сте разговаряли с чат-бот, до момента в който сте опитвали да разберете по кое време ще дойде пратката ви или в случай че сте опитвали да се свържете с мобилния си оператор, с цел да ревизирате сметката си.
За страдание, попадайки в неприятни ръце, технологията може да има и рисково приложение.
Особено известни в последните години са измамите по телефона. Робот набира случаен номер и се показва за избран човек. Опасността става още по-голяма, когато технологията, след прочут развой на образование, може да наподоби и даже изцяло да копира гласа на наш прочут, непосредствен или даже родственик.
Едно такова позвъняване може да ни коства трицифрена, даже и по-голяма сума.
Особено известни през годините станаха и – дълбоки имитации, които демонстрират известна персона да приказва или прави неща, които в действителният живот тя в никакъв случай не е казвала или правила.
Доста чести са и измамите с порнографско наличие, при които честа жертва са известни персони. Напоследък това се случва и с не толкоз известни хора, даже и с деца.
Как работи технологията?
Според службата за осведомителна сигурност на Университета във Вирджиния, deepfake е изкуствено изображение или видео (серия от изображения), основано с помощта машинно образование.
Процесът на основаване на комплицирани deepfakes включва два логаритъма. Единият създава допустимо най-хубавите подправени копия на действителни изображения. Другият модел е подготвен да открива недостатъци при генерирания артикул и в случай че засече такива, „ връща “ видеото за доработка на първия модел. Този развой се повтаря, до момента в който фалшификатът не премине всички проби.
Основната цел на deepfake е да повлияе на хората да повярват, че се е случило нещо, което не се е случило. Всеки, който има способността да основава дълбоки имитации, може да пусне дезинформация и да ни повлияе да се държим по метод, който ще придвижи дневния му ред по някакъв метод. Базираната на deepfake дезинформация може да аргументи безпорядък както в дребен, по този начин и в огромен мащаб.
Как да разпознаем с deepfake видео или аудио?
При видеата е доста значимо да следим изражението на лицето. Елементите, върху които можем да се концентрираме, са изражението дали то дава отговор на думите, които изрича индивидът, придвижването на очите – доста постоянно се случва мигането да става на по-чести или по-редки шпации или даже да липсва, макар че с напредването на технологиите тези дефекти последователно се почистват, синхрона на устните с това, което се приказва, неспецифичнисенки или даже липсана сенки по лицето, неестествени придвижвания или мимики на лицето и тялото.
На втори проект е инспекцията на казаното. Например, в случай че забележим видео с облика на Владимир Путин, който декларира, че е оповестил война на Запада и ще натисне нуклеарното копче, най-хубавото, което може да се направи е да се направи инспекция на обстоятелствата.
Това става най-лесно като бързо проверим в Google за сходно изявление, а по-късно и в съответни медии, на които имаме доверие. Можем да прегледаме в детайли и обществените мрежи за мнения по тази тематика и да проследим от кое място в действителност потегля разпространяването на сходно видео.
Хубаво е да се ревизират и институционалните уеб сайтове, като в горния образец да вземем за пример посетим уеб страницата на съветския президент, на министерството на защитата или на някоя от службите за сигурност.
„ С повишаването на качеството на дълбоките имитации ще бъде мъчно да се разграничи същинското от изкуственото “, поучава Линдзи Грейс, доцент в катедрата по интерактивни медии в университета на Маями.
Според нея потребителят на видеоклипове би трябвало да е задоволително остроумен, с цел да задава въпроси и да се рови във всяка информация, обвързвана с тях – мнения, метаданни, източник на разпространяване, подтекст и така нататък
Всъщност това, в което се провалят моделите за засичане на лъжливо или недостоверно наличия, основани на изкуствен интелект, е точно подтекстът. Компютърът не може да засече дали казаното дава отговор на предхождащите го преди този момент събития.
„ Важно е да практикувате няколко потвърдени тактики, [като] инспекция на източника. За дълбоки имитации на политически фигури, заслужаващи вести сметки или известно наличие също има онлайн запаси за инспекция на такова наличие “, изяснява доцент Грейс.
Специалистите по връзки считат, че най-хубавото противопоставяне на дезинформацията и подправените вести е положителната осведоменост – както за публичния и политическия живот, само че също и за рисковете, които се крият зад разпространяването на сходни технологии.
Един от водачите в киберсигурността NortonLifeLock обобщава измамите, на които можем да станем жертви поради deepfakes. Това са:
Фишинг измами;Крадене на данни или разрушаването им;Всякакви типове измами;Порнография;Опетняване на репутацията;Манипулация на изборите;Социално инженерство;;Кражба на самоличност;Финансова измама;Шантаж.15 потребни съвета, които разрешават разкриването на подправени видеа
Компанията предлага 15 неща, които можем да създадем, с цел да разобличим един подправен клип.
Неестествено придвижване на очите. Движенията на очите, които не наподобяват естествени – или неналичието на придвижване на очите, като липса на намигване, би трябвало да бъдат червен байрак за заплаха.
Неестествени изражения на лицето. Когато нещо не наподобява както би трябвало с лицето, това може да алармира за операция.
Неестествено позициониране на части от лицето. Ако лицето на някого сочи една посока, а носът му сочи друга, би трябвало да сте скептични.
Липса на страсти. Ако забележите липса на смяна в изражението при прочувствено изявление, това би трябвало също да ви усъмни.
Неестествена поза или размери на тялото. Ако формата на тялото на човек не наподобява естествена или има неловко или непоследователно позициониране на главата или тялото, това сигурно е знак за операция.
Неестествено придвижване на тялото. Ако индивидът от видеото прави неестествени придвижвания, да вземем за пример демонстрира непредвидена еластичност и танцува, без това да е характерно за държанието му или прави комплицирани акробатични номера или прави прекомерно внезапни придвижвания.
Неестествено оцветяване. Често се случва тенът на кожата да не дава отговор на действителното лице на индивида. Често липсва обезцветяване или погрешно ситуирани сенки.
Коса, която не наподобява същинска. Няма да видите къдрава или хвърчаща коса, тъй като подправените изображения няма да могат да генерират тези самостоятелни характерности.
Зъби, които не наподобяват същински. Алгоритмите може да не са в положение да генерират обособени зъби, тъй че неналичието на контури на обособени зъби може да е улика.
Замъгляване или погрешно подравняване. Ако краищата на изображенията са замъглени или образните детайли са погрешно подравнени.
Непостоянен звук или тон. Огледайте се за неприятно синхронизиране на устните, роботизирано звучащи гласове, необичайно наречие на думи, дигитален фонов звук или даже липса на тон.
Изображения, които наподобяват неестествени, когато се забавят. Ако гледате видео на екран, който е по-голям от вашия смарт телефон, или имате програмен продукт за редактиране на видео, който може да забави възпроизвеждането на видео, можете да увеличите мащаба и да разгледате изображенията по-отблизо. Увеличете мащаба на устните, с цел да видите дали има синхрон с говора.
Несъответствия в хаштаговете. Има криптографски логаритъм, който оказва помощ на основателите на видеоклипове да покажат, че техните видеоклипове са достоверни. Алгоритъмът се употребява за проникване на хаштагове на избрани места във видеоклип. Ако хаштаговете се трансформират, тогава би трябвало да подозирате, че видеоклипът е манипулиран.
Цифрови отпечатъци. Блокчейн технологията може също да сътвори дигитален отпечатък за видеоклипове. Въпреки че не е сигурна, тази основана на блокчейн инспекция може да помогне за определяне на достоверността на видеоклипа. Ето по какъв начин работи. Когато се сътвори видеоклип, наличието се записва в книга, която не може да бъде променяна. Тази технология може да помогне за доказване на достоверността на видеоклип.
Обратно търсене на изображения. Търсенето на автентично изображение или противоположното търсене на изображение благодарение на компютър може да разкрие сходни видеоклипове онлайн.
За още забавни вести, изявленията, разбори и мнения харесайте!
Изкуственият разсъдък е във напредък през последните няколко години и е явно, че той ще промени радикално живота на всички хора на планетата. Причината е, че съвсем няма да остане незасегната сфера от живота ни, в която технологията няма да господства.
Към момента изкуствен интелект оказва помощ в доста действия. Той е потребен да вземем за пример при и разчитането на текстове от документи, които с годините са се увредили. Технологиите, основани на изкуствен интелект ловко се употребяват в администрирането на процеси, изключително в региона на услугите.
Вероятно към този момент сте разговаряли с чат-бот, до момента в който сте опитвали да разберете по кое време ще дойде пратката ви или в случай че сте опитвали да се свържете с мобилния си оператор, с цел да ревизирате сметката си.
За страдание, попадайки в неприятни ръце, технологията може да има и рисково приложение.
Особено известни в последните години са измамите по телефона. Робот набира случаен номер и се показва за избран човек. Опасността става още по-голяма, когато технологията, след прочут развой на образование, може да наподоби и даже изцяло да копира гласа на наш прочут, непосредствен или даже родственик.
Едно такова позвъняване може да ни коства трицифрена, даже и по-голяма сума.
Особено известни през годините станаха и – дълбоки имитации, които демонстрират известна персона да приказва или прави неща, които в действителният живот тя в никакъв случай не е казвала или правила.
Доста чести са и измамите с порнографско наличие, при които честа жертва са известни персони. Напоследък това се случва и с не толкоз известни хора, даже и с деца.
Как работи технологията?
Според службата за осведомителна сигурност на Университета във Вирджиния, deepfake е изкуствено изображение или видео (серия от изображения), основано с помощта машинно образование.
Процесът на основаване на комплицирани deepfakes включва два логаритъма. Единият създава допустимо най-хубавите подправени копия на действителни изображения. Другият модел е подготвен да открива недостатъци при генерирания артикул и в случай че засече такива, „ връща “ видеото за доработка на първия модел. Този развой се повтаря, до момента в който фалшификатът не премине всички проби.
Основната цел на deepfake е да повлияе на хората да повярват, че се е случило нещо, което не се е случило. Всеки, който има способността да основава дълбоки имитации, може да пусне дезинформация и да ни повлияе да се държим по метод, който ще придвижи дневния му ред по някакъв метод. Базираната на deepfake дезинформация може да аргументи безпорядък както в дребен, по този начин и в огромен мащаб.
Как да разпознаем с deepfake видео или аудио?
При видеата е доста значимо да следим изражението на лицето. Елементите, върху които можем да се концентрираме, са изражението дали то дава отговор на думите, които изрича индивидът, придвижването на очите – доста постоянно се случва мигането да става на по-чести или по-редки шпации или даже да липсва, макар че с напредването на технологиите тези дефекти последователно се почистват, синхрона на устните с това, което се приказва, неспецифичнисенки или даже липсана сенки по лицето, неестествени придвижвания или мимики на лицето и тялото.
На втори проект е инспекцията на казаното. Например, в случай че забележим видео с облика на Владимир Путин, който декларира, че е оповестил война на Запада и ще натисне нуклеарното копче, най-хубавото, което може да се направи е да се направи инспекция на обстоятелствата.
Това става най-лесно като бързо проверим в Google за сходно изявление, а по-късно и в съответни медии, на които имаме доверие. Можем да прегледаме в детайли и обществените мрежи за мнения по тази тематика и да проследим от кое място в действителност потегля разпространяването на сходно видео.
Хубаво е да се ревизират и институционалните уеб сайтове, като в горния образец да вземем за пример посетим уеб страницата на съветския президент, на министерството на защитата или на някоя от службите за сигурност.
„ С повишаването на качеството на дълбоките имитации ще бъде мъчно да се разграничи същинското от изкуственото “, поучава Линдзи Грейс, доцент в катедрата по интерактивни медии в университета на Маями.
Според нея потребителят на видеоклипове би трябвало да е задоволително остроумен, с цел да задава въпроси и да се рови във всяка информация, обвързвана с тях – мнения, метаданни, източник на разпространяване, подтекст и така нататък
Всъщност това, в което се провалят моделите за засичане на лъжливо или недостоверно наличия, основани на изкуствен интелект, е точно подтекстът. Компютърът не може да засече дали казаното дава отговор на предхождащите го преди този момент събития.
„ Важно е да практикувате няколко потвърдени тактики, [като] инспекция на източника. За дълбоки имитации на политически фигури, заслужаващи вести сметки или известно наличие също има онлайн запаси за инспекция на такова наличие “, изяснява доцент Грейс.
Специалистите по връзки считат, че най-хубавото противопоставяне на дезинформацията и подправените вести е положителната осведоменост – както за публичния и политическия живот, само че също и за рисковете, които се крият зад разпространяването на сходни технологии.
Един от водачите в киберсигурността NortonLifeLock обобщава измамите, на които можем да станем жертви поради deepfakes. Това са:
Фишинг измами;Крадене на данни или разрушаването им;Всякакви типове измами;Порнография;Опетняване на репутацията;Манипулация на изборите;Социално инженерство;;Кражба на самоличност;Финансова измама;Шантаж.15 потребни съвета, които разрешават разкриването на подправени видеа
Компанията предлага 15 неща, които можем да създадем, с цел да разобличим един подправен клип.
Неестествено придвижване на очите. Движенията на очите, които не наподобяват естествени – или неналичието на придвижване на очите, като липса на намигване, би трябвало да бъдат червен байрак за заплаха.
Неестествени изражения на лицето. Когато нещо не наподобява както би трябвало с лицето, това може да алармира за операция.
Неестествено позициониране на части от лицето. Ако лицето на някого сочи една посока, а носът му сочи друга, би трябвало да сте скептични.
Липса на страсти. Ако забележите липса на смяна в изражението при прочувствено изявление, това би трябвало също да ви усъмни.
Неестествена поза или размери на тялото. Ако формата на тялото на човек не наподобява естествена или има неловко или непоследователно позициониране на главата или тялото, това сигурно е знак за операция.
Неестествено придвижване на тялото. Ако индивидът от видеото прави неестествени придвижвания, да вземем за пример демонстрира непредвидена еластичност и танцува, без това да е характерно за държанието му или прави комплицирани акробатични номера или прави прекомерно внезапни придвижвания.
Неестествено оцветяване. Често се случва тенът на кожата да не дава отговор на действителното лице на индивида. Често липсва обезцветяване или погрешно ситуирани сенки.
Коса, която не наподобява същинска. Няма да видите къдрава или хвърчаща коса, тъй като подправените изображения няма да могат да генерират тези самостоятелни характерности.
Зъби, които не наподобяват същински. Алгоритмите може да не са в положение да генерират обособени зъби, тъй че неналичието на контури на обособени зъби може да е улика.
Замъгляване или погрешно подравняване. Ако краищата на изображенията са замъглени или образните детайли са погрешно подравнени.
Непостоянен звук или тон. Огледайте се за неприятно синхронизиране на устните, роботизирано звучащи гласове, необичайно наречие на думи, дигитален фонов звук или даже липса на тон.
Изображения, които наподобяват неестествени, когато се забавят. Ако гледате видео на екран, който е по-голям от вашия смарт телефон, или имате програмен продукт за редактиране на видео, който може да забави възпроизвеждането на видео, можете да увеличите мащаба и да разгледате изображенията по-отблизо. Увеличете мащаба на устните, с цел да видите дали има синхрон с говора.
Несъответствия в хаштаговете. Има криптографски логаритъм, който оказва помощ на основателите на видеоклипове да покажат, че техните видеоклипове са достоверни. Алгоритъмът се употребява за проникване на хаштагове на избрани места във видеоклип. Ако хаштаговете се трансформират, тогава би трябвало да подозирате, че видеоклипът е манипулиран.
Цифрови отпечатъци. Блокчейн технологията може също да сътвори дигитален отпечатък за видеоклипове. Въпреки че не е сигурна, тази основана на блокчейн инспекция може да помогне за определяне на достоверността на видеоклипа. Ето по какъв начин работи. Когато се сътвори видеоклип, наличието се записва в книга, която не може да бъде променяна. Тази технология може да помогне за доказване на достоверността на видеоклип.
Обратно търсене на изображения. Търсенето на автентично изображение или противоположното търсене на изображение благодарение на компютър може да разкрие сходни видеоклипове онлайн.
За още забавни вести, изявленията, разбори и мнения харесайте!
Източник: debati.bg
КОМЕНТАРИ




