Опасният китайски изкуствен интелект, който предвижда престъпленията
Изкуственият разсъдък (AI) има своите прерогативи, когато се употребява за наблюдаване на популацията - да вземем за пример, за възстановяване на равнището на сигурността, само че може да се трансформира в опасност за неприкосновеността на персоналния живот и самата независимост, написа The New York Times.
Според източници на изданието, Китай изследва опциите за създаване и внедряване на нови технологии в публичните пространства, които ще разрешават на страната да планува осъществяването на закононарушения, както и провеждането на митинги.
За задачата ще бъде употребявано голямо количество данни. Те ще се събират посредством наблюдаване на навиците на 1.4 милиарда жители и принадлежности за лицево различаване, които са на мода в страната от няколко години.
Технологията с изкуствен интелект ще помогне на Китай да разкрива закононарушения в процеса на тяхното кроене. Например, като записва среща на трима души с престъпни досиета в пекински квартал.
Също по този начин с този метод локалните управляващи ще могат да наблюдават деятелите, които са взели участие в митинги, както и хора, които страдат от душевен проблеми.
Така, когато изкуственият разсъдък засече съмнително държание на обещано лице - нещо, което е отвън неговата рутина, той ще може да уведоми управляващите, тъй че те да проверяват опцията да бъде осъществено закононарушение.
Според медиите в Съединени американски щати китайската страна от дълго време работи върху внедряването на технологията. Тя ще бъде употребена освен против евентуални нарушители, само че и при уязвими групи, като имигранти, етнически малцинства, хора с психологично разстройство и други.
По данни на The New York Times изкуственият разсъдък ще бъде инструктиран и да не следи избрани хора, по-специално държавни чиновници.
На този стадий системата се създава от китайския стартъп Megvii. По думите на създателя и изпълнителния му шеф Юин Ки, би било ужасяващо, в случай че хора гледаха камерите, само че зад тях стои единствено система.
Това е като търсачката, която използваме всеки ден, с цел да сърфираме в интернет. Тя е доста неутрална. Предполага се, че е нещо доброжелателно, добавя той.
Според Ки, с помощта на потреблението на тази система за наблюдаване, "лошите няма къде да се скрият ".
Въпреки че технологията не е в деяние сега, Китай към този момент има сходни решения, създадени от други компании. Една от тях е способна да планува организирането на обществени митинги и е дело на компанията Hikvision.
По-конкретно, тази система събира данни за китайски вносители на петиции - хора, които се пробват да подадат тъжби против локални чиновници, и ги прави оценка във връзка с вероятността да пътуват до Пекин. В бъдеще данните ще се употребяват за образование на модели за машинно образование.
Свобода и персонален живот?
Използването на технология за надзор на популацията не е нещо ново в Китай. Държавата е измежду водещите, когато става въпрос за потребление на лицево различаване на публични места. Експертите са загрижени по отношение на използването на този вид принадлежности като контролна мярка против малцинствата, живеещи в страната.
По отношение на потреблението на нови интелигентни системи за прогнозиране на закононарушения, Хуан Игнасио Руйе, професор по изкуствен интелект и роботика в Международния университет в Ла Риоха (UNIR), акцентира две огромни рискове, написа abc.es.
Няма подозрение, че потреблението на подобен AI визира неприкосновеността на хората. Събират се данни, в които се смесва информация от обществената сфера, посредством камерите, които страната е конфигурирала по улиците, а също и в частната сфера. Поверителността на индивида е изцяло нарушена, акцентира специалистът.
Вторият риск е обвързван с подкопаването на концепцията за персонална независимост. Това, че на един човек му е хрумнало да извърши закононарушение, не значи, че той ще го направи в действителност. Може в един миг да промени решението си.
За разлика от Китай, Европейският съюз от известно време търси метод да контролира потреблението на AI, изключително този, който може да бъде по-опасен за потребителя.
Миналия май Европейският парламент утвърди класиране на системи, които употребяват тази технология, в което се показва в какви обстановки и кой може да прибегне до нейното потребление според от риска.
Според източници на изданието, Китай изследва опциите за създаване и внедряване на нови технологии в публичните пространства, които ще разрешават на страната да планува осъществяването на закононарушения, както и провеждането на митинги.
За задачата ще бъде употребявано голямо количество данни. Те ще се събират посредством наблюдаване на навиците на 1.4 милиарда жители и принадлежности за лицево различаване, които са на мода в страната от няколко години.
Технологията с изкуствен интелект ще помогне на Китай да разкрива закононарушения в процеса на тяхното кроене. Например, като записва среща на трима души с престъпни досиета в пекински квартал.
Също по този начин с този метод локалните управляващи ще могат да наблюдават деятелите, които са взели участие в митинги, както и хора, които страдат от душевен проблеми.
Така, когато изкуственият разсъдък засече съмнително държание на обещано лице - нещо, което е отвън неговата рутина, той ще може да уведоми управляващите, тъй че те да проверяват опцията да бъде осъществено закононарушение.
Според медиите в Съединени американски щати китайската страна от дълго време работи върху внедряването на технологията. Тя ще бъде употребена освен против евентуални нарушители, само че и при уязвими групи, като имигранти, етнически малцинства, хора с психологично разстройство и други.
По данни на The New York Times изкуственият разсъдък ще бъде инструктиран и да не следи избрани хора, по-специално държавни чиновници.
На този стадий системата се създава от китайския стартъп Megvii. По думите на създателя и изпълнителния му шеф Юин Ки, би било ужасяващо, в случай че хора гледаха камерите, само че зад тях стои единствено система.
Това е като търсачката, която използваме всеки ден, с цел да сърфираме в интернет. Тя е доста неутрална. Предполага се, че е нещо доброжелателно, добавя той.
Според Ки, с помощта на потреблението на тази система за наблюдаване, "лошите няма къде да се скрият ".
Въпреки че технологията не е в деяние сега, Китай към този момент има сходни решения, създадени от други компании. Една от тях е способна да планува организирането на обществени митинги и е дело на компанията Hikvision.
По-конкретно, тази система събира данни за китайски вносители на петиции - хора, които се пробват да подадат тъжби против локални чиновници, и ги прави оценка във връзка с вероятността да пътуват до Пекин. В бъдеще данните ще се употребяват за образование на модели за машинно образование.
Свобода и персонален живот?
Използването на технология за надзор на популацията не е нещо ново в Китай. Държавата е измежду водещите, когато става въпрос за потребление на лицево различаване на публични места. Експертите са загрижени по отношение на използването на този вид принадлежности като контролна мярка против малцинствата, живеещи в страната.
По отношение на потреблението на нови интелигентни системи за прогнозиране на закононарушения, Хуан Игнасио Руйе, професор по изкуствен интелект и роботика в Международния университет в Ла Риоха (UNIR), акцентира две огромни рискове, написа abc.es.
Няма подозрение, че потреблението на подобен AI визира неприкосновеността на хората. Събират се данни, в които се смесва информация от обществената сфера, посредством камерите, които страната е конфигурирала по улиците, а също и в частната сфера. Поверителността на индивида е изцяло нарушена, акцентира специалистът.
Вторият риск е обвързван с подкопаването на концепцията за персонална независимост. Това, че на един човек му е хрумнало да извърши закононарушение, не значи, че той ще го направи в действителност. Може в един миг да промени решението си.
За разлика от Китай, Европейският съюз от известно време търси метод да контролира потреблението на AI, изключително този, който може да бъде по-опасен за потребителя.
Миналия май Европейският парламент утвърди класиране на системи, които употребяват тази технология, в което се показва в какви обстановки и кой може да прибегне до нейното потребление според от риска.
Източник: profit.bg
КОМЕНТАРИ