„Как се е оказал там“: Вълна от реакции в мрежите след драматична акция по „спасяване на жираф“
Жираф, оказал се заклещен на дребен пай канара, кран, с който би трябвало да бъде избавен, и голяма навалица от хора, гледащи към животното, изпаднало в неволя.
Това е първият кадър от циркулиращо видео през последните дни в разнообразни обществени мрежи, гледано от милиони консуматори.
Следва началото на избавителната акция, изтеглянето на жирафа, който във видеото е по-голям от крана, и ръкопляскания на събралото се голям брой след сполучливия завършек на интервенцията.
Драматичните фрагменти, естествено, са генерирани от изкуствен интелект и са дийпфейк (deepfake – дълбока имитация – бел. ред.), само че не всички консуматори съумяват да го засекат. Сред водещите мнения са – „ Как се е озовал жирафът там? “, „ Кранът може да падне при неверна маневра “, „ Как са съумели да смъкнат крана там? “.
Макар това видео да е безобидно единствено по себе си, производството на дийпфейк нараства с все по-големи темпове, а жертви на новите технологии стават от огромни корпорации, през политици и предприемачи, до новоизгряващи артисти и артисти.
Това е проблем, който засегна звезди като Тейлър Суифт, само че също може да засегне елементарни хора, които могат да станат обекти на изнудване.
Министър-председателят на Италия Джорджа Мелони води дело против основател на дийпфейк видео за възрастни, в което нейното лице е заместило това на порно актриса.
Южна Корея ревизира своя закон, който криминализира подправената порнография. Сега там освен е нелегално да се основава и популяризира този непристоен дигитален материал, само че и да се гледа.
Освен престъпната страна казусът визира обществото в неговата целокупност. Все повече дийпфейк видеа се употребяват против политически съперници или за политически цели.
Поради реалистичния темперамент на дийпфейк наличието, хората са изправени пред не всеки път приятното предизвикателство да разграничат обстоятелството от измислицата. Или ги принуждава да стават следователи и детективи, оценявайки всеки един детайл от видео или фотография, с цел да схванат в действителност ли обещано нещо се е случило.
„ Целта е една-единствена - да може да се злоупотреби с доверието на потребителите, да бъдат финансово ощетени, да се тества до каква степен те са осведомени с тази технология, дали могат да оценят истината от лъжата. За страдание, едно от последните изследвания на Европейски Съюз потвърди, че обществото в България е най-податливо на лъжлива информация, на дезинформация “, изясни в рубриката „ Провери обстоятелствата “ специалистът по киберсигурност Любомир Тулев.
Различни научни посоки се занимават с проучване на резултатите от подправените видеа. Появяват се „ наръчници “ по какъв начин да разпознаем дийпфейк продукцията, само че и от ден на ден материали по какъв начин да се основава.
Всичко това единствено по себе си ще докара до отлив на потребителите от обществените мрежи, в случай че наличието от изкуствен интелект не бъде по-строго контролирано или най-малко маркирано като основано от изкуствен интелект.
Преди четири години Meta и Фейсбук оповестиха, че ускоряват следенето против манипулативните видеа, разпознати като „ дийпфейк “, само че тези старания не съумяват да смогнат на производството, имайки поради и немощта на обществените мрежи към изявления на другите езици, както и при късите видеа в секциите Shorts.
Инфо: БТВ




