AI доведе ерата на дълбокото съмнение
Винтернет към този момент има обилие от всевъзможни фотоси, клипове, аудио и текст, които са основани от изкуствен интелект (AI). Това наличие става все по-реалистично и по-разпространено.
Ако се употребява правилно, то може да е от изгода за всички. За страдание, огромна част е ориентирана към манипулиране и заблуждение на хората по избрани тематики, оповестява Ars technica.
Проблемът става все по-изразен и възражда остарял термин – „ надълбоко подозрение “. Концепцията беше показана още през предишното десетилетие, само че тогава беше по-скоро опция – какво би се случило. Тя се поражда около първия дийп фалшив – видео, което е генерирано от изкуствен интелект и показва действителен човек в несъществуваща обстановка или изявление.
През 2019 година правните специалисти ДаниелеСитрон и Робърт Чесни вкарват и термина „ дял на лъжеца “ – това е следствието от „ дълбокото подозрение “. А точно дийп фейковете се трансформират в инструмент за лъжци да дискредитират действителни доказателства.
Пет години по-късно всичко това е не просто действителност. Дълбокото подозрение към този момент е „ епоха “, т.е. навсякъде.
В интернет има голямо количество принадлежности и услуги, които улесняват основаването на подправено наличие. В множеството случаи не са нужни никакви знания, а единствено малко „ входяща “ информация, да вземем за пример фотоси или видео, на което да се построи подправеното наличие. Такива данни са елементарно налични в обществените мрежи.
Така за минути може да се сътвори най-различно подправено наличие, което да показа хора в нелицеприятни пози, да изопачи техни изказвания, да се употребява за други измами като кражба на идентичност и така нататък През пролетта на тази година американски федерални съдии предизвестиха, че AI дийп фейкове могат да бъдат употребявани и внедрявани в доказателства по каузи и даже и да бъдат разкрити, това ще способства и за подозренията към всички доказателства.
Именно това е и една от другите вреди, които нанася „ ерата на дълбокото подозрение “. Тъй като хората знаят, че може да гледат подправено наличие, те автоматизирано са скептични и недоверчиви към всичко. И за същинската информация става доста по-трудно да бъде призната, защото хората могат да решат, че доказателствата не са задоволителни или и те също са изфабрикувани.
Друг риск е насърчаване на осведомително користолюбие – щом не съм склонен с нещо, то е подправено, а щом съм склонен, даже и да е потвърдено подправено – въпреки всичко е вярно, само че някой се пробва да го изкриви посредством имитации. Всичко това води до ерозиране на общественото доверие. Всеки ще се съмнява във всичко и ще е доста мъчно да бъде уверен в противоположното.
Или пък хората ще отхвърлят всичко от AI, защото не могат да му се доверят. Тогава пък технологията може да бъде прахосана и няма да бъде употребена пълноценно, от което обществото още веднъж ще загуби.
Разбира се, има по какъв начин да се противодейства на „ дълбокото подозрение “. Проблемът е, че това изисква спомагателни старания. Например инспекция на информацията от няколко източника, инспекция на самите източници дали са достоверни или пък са основани за да поддържат подправените изказвания. Използване на принадлежности, които да разпознават дали обещано наличие е обработвано и в случай че да – от какво и по какъв начин.
Всичко това изисква време и старания и малко на брой биха го правили. Но мнозина биха се доверили на различен да прави инспекциите вместо тях и да им каже. Тогава обаче се връщаме отново в изходна позиция – може ли да се има доверие на проверяващия. Ерата на дълбокото подозрение наподобява на затворен кръг, само че при нараснало внимание и непримиримост, хората ще могат да се оправят с нея. Стига да имат желанието да съумеят.
Не пропускайте най-важните вести - последвайте ни в
Ако се употребява правилно, то може да е от изгода за всички. За страдание, огромна част е ориентирана към манипулиране и заблуждение на хората по избрани тематики, оповестява Ars technica.
Проблемът става все по-изразен и възражда остарял термин – „ надълбоко подозрение “. Концепцията беше показана още през предишното десетилетие, само че тогава беше по-скоро опция – какво би се случило. Тя се поражда около първия дийп фалшив – видео, което е генерирано от изкуствен интелект и показва действителен човек в несъществуваща обстановка или изявление.
През 2019 година правните специалисти ДаниелеСитрон и Робърт Чесни вкарват и термина „ дял на лъжеца “ – това е следствието от „ дълбокото подозрение “. А точно дийп фейковете се трансформират в инструмент за лъжци да дискредитират действителни доказателства.
Пет години по-късно всичко това е не просто действителност. Дълбокото подозрение към този момент е „ епоха “, т.е. навсякъде.
В интернет има голямо количество принадлежности и услуги, които улесняват основаването на подправено наличие. В множеството случаи не са нужни никакви знания, а единствено малко „ входяща “ информация, да вземем за пример фотоси или видео, на което да се построи подправеното наличие. Такива данни са елементарно налични в обществените мрежи.
Така за минути може да се сътвори най-различно подправено наличие, което да показа хора в нелицеприятни пози, да изопачи техни изказвания, да се употребява за други измами като кражба на идентичност и така нататък През пролетта на тази година американски федерални съдии предизвестиха, че AI дийп фейкове могат да бъдат употребявани и внедрявани в доказателства по каузи и даже и да бъдат разкрити, това ще способства и за подозренията към всички доказателства.
Именно това е и една от другите вреди, които нанася „ ерата на дълбокото подозрение “. Тъй като хората знаят, че може да гледат подправено наличие, те автоматизирано са скептични и недоверчиви към всичко. И за същинската информация става доста по-трудно да бъде призната, защото хората могат да решат, че доказателствата не са задоволителни или и те също са изфабрикувани.
Друг риск е насърчаване на осведомително користолюбие – щом не съм склонен с нещо, то е подправено, а щом съм склонен, даже и да е потвърдено подправено – въпреки всичко е вярно, само че някой се пробва да го изкриви посредством имитации. Всичко това води до ерозиране на общественото доверие. Всеки ще се съмнява във всичко и ще е доста мъчно да бъде уверен в противоположното.
Или пък хората ще отхвърлят всичко от AI, защото не могат да му се доверят. Тогава пък технологията може да бъде прахосана и няма да бъде употребена пълноценно, от което обществото още веднъж ще загуби.
Разбира се, има по какъв начин да се противодейства на „ дълбокото подозрение “. Проблемът е, че това изисква спомагателни старания. Например инспекция на информацията от няколко източника, инспекция на самите източници дали са достоверни или пък са основани за да поддържат подправените изказвания. Използване на принадлежности, които да разпознават дали обещано наличие е обработвано и в случай че да – от какво и по какъв начин.
Всичко това изисква време и старания и малко на брой биха го правили. Но мнозина биха се доверили на различен да прави инспекциите вместо тях и да им каже. Тогава обаче се връщаме отново в изходна позиция – може ли да се има доверие на проверяващия. Ерата на дълбокото подозрение наподобява на затворен кръг, само че при нараснало внимание и непримиримост, хората ще могат да се оправят с нея. Стига да имат желанието да съумеят.
Не пропускайте най-важните вести - последвайте ни в
Източник: vesti.bg
КОМЕНТАРИ