Изкуственият интелект (AI) има своите преимущества, когато се използва за

...
Изкуственият интелект (AI) има своите преимущества, когато се използва за
Коментари Харесай

Опасният китайски изкуствен интелект, който предвижда престъпленията

Изкуственият разсъдък (AI) има своите прерогативи, когато се употребява за наблюдаване на популацията - да вземем за пример, за възстановяване на равнището на сигурността, само че може да се трансформира в опасност за неприкосновеността на персоналния живот и самата независимост, написа The New York Times.

Според източници на изданието, Китай изследва опциите за създаване и внедряване на нови технологии в публичните пространства, които ще разрешават на страната да планува осъществяването на закононарушения, както и провеждането на митинги.

За задачата ще бъде употребявано голямо количество данни. Те ще се събират посредством наблюдаване на навиците на 1.4 милиарда жители и принадлежности за лицево различаване, които са на мода в страната от няколко години.

Технологията с изкуствен интелект ще помогне на Китай да разкрива закононарушения в процеса на тяхното кроене. Например, като записва среща на трима души с престъпни досиета в пекински квартал.

Също по този начин с този метод локалните управляващи ще могат да наблюдават деятелите, които са взели участие в митинги, както и хора, които страдат от душевен проблеми.

Така, когато изкуственият разсъдък засече съмнително държание на обещано лице - нещо, което е отвън неговата рутина, той ще може да уведоми управляващите, тъй че те да проверяват опцията да бъде осъществено закононарушение.

Според медиите в Съединени американски щати китайската страна от дълго време работи върху внедряването на технологията. Тя ще бъде употребена освен против евентуални нарушители, само че и при уязвими групи, като имигранти, етнически малцинства, хора с психологично разстройство и други.

По данни на The New York Times изкуственият разсъдък ще бъде инструктиран и да не следи избрани хора, по-специално държавни чиновници.

На този стадий системата се създава от китайския стартъп Megvii. По думите на създателя и изпълнителния му шеф Юин Ки, би било ужасяващо, в случай че хора гледаха камерите, само че зад тях стои единствено система.

Това е като търсачката, която използваме всеки ден, с цел да сърфираме в интернет. Тя е доста неутрална. Предполага се, че е нещо доброжелателно, добавя той.

Според Ки, с помощта на потреблението на тази система за наблюдаване, "лошите няма къде да се скрият ".

Въпреки че технологията не е в деяние сега, Китай към този момент има сходни решения, създадени от други компании. Една от тях е способна да планува организирането на обществени митинги и е дело на компанията Hikvision.

По-конкретно, тази система събира данни за китайски вносители на петиции - хора, които се пробват да подадат тъжби против локални чиновници, и ги прави оценка във връзка с вероятността да пътуват до Пекин. В бъдеще данните ще се употребяват за образование на модели за машинно образование.

Свобода и персонален живот?

Използването на технология за надзор на популацията не е нещо ново в Китай. Държавата е измежду водещите, когато става въпрос за потребление на лицево различаване на публични места. Експертите са загрижени по отношение на използването на този вид принадлежности като контролна мярка против малцинствата, живеещи в страната.

По отношение на потреблението на нови интелигентни системи за прогнозиране на закононарушения, Хуан Игнасио Руйе, професор по изкуствен интелект и роботика в Международния университет в Ла Риоха (UNIR), акцентира две огромни рискове, написа abc.es.

Няма подозрение, че потреблението на подобен AI визира неприкосновеността на хората. Събират се данни, в които се смесва информация от обществената сфера, посредством камерите, които страната е конфигурирала по улиците, а също и в частната сфера. Поверителността на индивида е изцяло нарушена, акцентира специалистът.

Вторият риск е обвързван с подкопаването на концепцията за персонална независимост. Това, че на един човек му е хрумнало да извърши закононарушение, не значи, че той ще го направи в действителност. Може в един миг да промени решението си.

За разлика от Китай, Европейският съюз от известно време търси метод да контролира потреблението на AI, изключително този, който може да бъде по-опасен за потребителя.

Миналия май Европейският парламент утвърди класиране на системи, които употребяват тази технология, в което се показва в какви обстановки и кой може да прибегне до нейното потребление според от риска.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР