Китай използва изкуствения интелект, за да оцени лоялността“ на хората

...
Китай използва изкуствения интелект, за да оцени лоялността“ на хората
Коментари Харесай

Ще бъдем ли следени и в опасност ли сме?

Китай употребява изкуствения разсъдък, с цел да оцени „ лоялността “ на хората

Европейският съюз (ЕС) утвърди първия в света закон, който да контролира изкуствения разсъдък (AI) Българският евродепутат Ева Майдел е един от докладичиците и част от екипа, водил договарянията в продължение на 40 часа. Защо е значимо AI да бъде следен и може ли да бъде рисков - отговорите в изявлението с Майдел пред бТВ.

Липсата на надзор при зараждането на обществените мрежи роди техники за световна операция и доста рискове за обществата. В този смисъл, за какво AI би трябвало да се контролира?

„ Изкуственият разсъдък към този момент не е тематика единствено за научни и софтуерни конгреси или единствено за специалисти. Вярваме, че това е технология, която се употребява от всеки жител, всеки бизнес, в нашите коли и би трябвало все по-често да бъде необятно обсъждана. Изкуственият разсъдък от една страна може да се употребява за всеобщото следене на жители, само че от друга – да дава доста съответни диагнози в медицината или в биотехнологиите. Например, за неща, които са в помощ на обществото, само че и такива, които могат съществено да навредят. Затова беше доста значимо Европейски Съюз да одобри своя правна рамка по какъв начин и какво желаеме да реализираме, с цел да дадем посока какво може и какво не. Можем да си представим свят, в който всяка камера може да ви разпознава и следи, в който подправените вести и видеа изпълват напълно обществените ни мрежи, в който изкуственият разсъдък дефинира дали сте наети на избрана работа, или детето ви е признато, или не в избран университет. Когато питате тази система, тя да не може да ви даде отговор. С този закон споделяме, че не желаеме да живеем в подобен свят “.

Ще бъде ли контролирано лицевото различаване посредством изкуствен интелект в европейските градове?

„ В този закон имаме доста ясни и строги ограничавания изкуственият разсъдък да не се употребява за следене на хора и да не нарушава нашите цивилен права. Например – желаеме да използваме лицево различаване в сходни случаи, това няма да бъде допустимо. Но в случай че има отвлечено дете, обвинен терорист или нарушител, желаеме тези системи да могат да ни оказват помощ в такива избрани крайни случаи. Не желаеме тези системи да ни наблюдават непрестанно през нашия живот и тъкмо това успяхме да реализираме с този правилник и имаме политическо съглашение за това по какъв начин да контролираме тази част на технологията “.

Забранява се потреблението в обществената, кредитна система, както и за манипулиране или потребление на уязвимостите на потребителите. Може ли да дадете образец?

„ Има страни, в които изкуственият разсъдък се употребява не в интерес на обществото, а в интерес на властническия режим. В Китай тази технология се употребява точно за този вид обществена, кредитна система. На базата на информация, събрана от разнообразни камери, интернет история, държание на обществени места Китай употребява изкуствения разсъдък, с цел да оцени така наречен „ преданост “ на избран човек или компания и какъв риск имат. Тоест, в случай че забавиш заплащането на наема си, може управляващите да не ти разрешават да се качиш на градски превоз, в случай че критикуваш държавното управление в интернет, можеш да получиш по-високи налози. Ние сме изрично срещу в Европа за този тип потребление на изкуствения разсъдък и го забраняваме в регламента “.

В момента чатботовете с изкуствен интелект дават неверни отговори за доста хора и събития, съгласно това с каква информация се зареждат. Опасявате ли се, че това може да бъде идната огромна вълна на подправени вести и по какъв начин ще го регулирате?

„ Правим това в регламента. В момента този вид чатботове се употребяват от към 150 млн. души в целия свят. Ако има неточност в тях, тя би се популяризирала и мултиплицирала и за обществото и това би основало съществени проблеми. Затова слагаме ясни, строги правила - първо данните да бъдат подготвени по избрани правила, по-късно да се вкарат доста високи равнища на киберсигурност и да има хора, които наблюдават по какъв начин се оправя този чатбот и дали изобщо прави работа. Също по този начин при всяко наше взаимоотношение с чатбот би трябвало да знаем, че имаме такова. Това също се планува в закона “.

Как обаче този закон ще се ползва, всяка страна членка сама ще го ползва, както GDPR, или Брюксел ще го ползва за всички?

„ Законът ще се ползва по два метода. Едната част – на национално равнище. Тук става въпрос за така наречен „ високорискови сфери “, които ще подлежат на прецизен надзор. Например, когато изкуственият разсъдък се употребява в банковото дело, от университети, учебни заведения, за наемане на хора в обществената сфера. Там националните институции ще имат малко повече пълномощия. В същото време ние доста добре разбираме, че тази технология е надалеч по-сложна от всяка една и има доста малко хора по света, които същински я схващат и могат да ревизират и ползват тези нови правила. Затова Европейска комисия ще сътвори специфичен офис, който ще се ситуира в Европейска комисия, който да може да подкрепя работата и да бъде в непрестанен контакт с фирмите, с цел да види дали тази регулация се ползва. Ще има и много съществени санкции, в случай че не се ползва “.
Източник: flagman.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР