Ева Майдел: Изкуственият интелект вече не е тема само за научни и технологични форуми или само за експерти
Изкуственият разсъдък към този момент не е тематика единствено за научни и софтуерни конгреси или единствено за специалисти. Вярваме, че това е технология, която се употребява от всеки жител, всеки бизнес, в нашите коли и би трябвало все по-често да бъде необятно обсъждана. Това сподели нощес евродепутатът Ева Майдел в предаването „ 120 минути " по бТВ.
Изкуственият разсъдък от една страна може да се употребява за всеобщото следене на жители, само че от друга може да дава доста съответни диагнози в медицината или в биотехнологиите, означи тя. „ Затова беше доста значимо Европейски Съюз да одобри своя правна рамка по какъв начин и какво желаеме да реализираме, с цел да дадем посока какво може и какво не. Можем да си представим свят, в който всяка камера може да ви разпознава и следи, в който подправените вести и видеа изпълват напълно обществените ни мрежи, в който изкуственият разсъдък дефинира дали сте наети на избрана работа, или детето ви е признато, или не в избран университет. С този закон споделяме, че не желаеме да живеем в подобен свят ", съобщи тя.
В законодателството има ясни и строги ограничавания за това изкуственият разсъдък да не се употребява за следене на хора и да не нарушава гражданските права. „ Ако има отвлечено дете, обвинен терорист или нарушител, желаеме тези системи да могат да ни оказват помощ в такива избрани крайни случаи. Не желаеме тези системи да ни наблюдават непрестанно през нашия живот и тъкмо това успяхме да реализираме с този правилник. Имаме политическо съглашение за това по какъв начин да контролираме тази част на технологията ", разясни Ева Майдел.
Забранява се потреблението в обществената, кредитна система, както и за манипулиране или потребление на уязвимостите на потребителите. В някои страни изкуственият разсъдък се употребява не в интерес на обществото, а в интерес на властническия режим. В Китай да вземем за пример тази технология се употребява точно за този вид обществена, кредитна система. „ На базата на информация, събрана от разнообразни камери, интернет история, държание на обществени места Китай употребява изкуствения разсъдък, с цел да оцени така наречен „ преданост " на избран човек или компания и какъв риск имат. Т.е. в случай че забавиш заплащането на наема си, може управляващите да не ти разрешават да се качиш на градски превоз, в случай че критикуваш държавното управление в интернет, можеш да получиш по-високи налози. Ние сме изрично срещу в Европа за този тип потребление на изкуствения разсъдък и го забраняваме в регламента ", изясни евродепутатът.
В регламента е заложен и казусът с халюцинациите на изкуствения разсъдък.
„ В момента чатботове се употребяват от към 150 млн. души в целия свят. Ако има неточност в тях, тя би се популяризирала и мултиплицирала и за обществото и това би основало съществени проблеми. Затова слагаме ясни, строги правила: първо, данните да бъдат подготвени по избрани правила, по-късно да се вкарат доста високи равнища на киберсигурност и да има хора, които наблюдават по какъв начин се оправя този чатбот и дали изобщо прави работа. Също по този начин при всяко наше взаимоотношение с чатбот би трябвало да знаем, че имаме такова. Това също се планува в закона. "
Законът ще се ползва по два метода - на национално равнище и на равнище Еврокомисия. „ Тук става въпрос за така наречен високорискови сфери, които ще подлежат на прецизен надзор. Например, когато изкуственият разсъдък се употребява в банковото дело, от университети, учебни заведения, за наемане на хора в обществената сфера, националните институции ще имат малко повече пълномощия. В същото време ние доста добре разбираме, че тази технология е надалеч по-сложна от всяка една и има доста малко хора по света, които същински я схващат и могат да ревизират и ползват тези нови правила. Затова Европейска комисия ще сътвори специфичен офис, който ще се ситуира в Европейска комисия, който да може да подкрепя работата и да бъде в непрестанен контакт с фирмите, с цел да види дали тази регулация се ползва. Ще има и много съществени санкции, в случай че не се ползва ", изясни Ева Майдел.
Изкуственият разсъдък от една страна може да се употребява за всеобщото следене на жители, само че от друга може да дава доста съответни диагнози в медицината или в биотехнологиите, означи тя. „ Затова беше доста значимо Европейски Съюз да одобри своя правна рамка по какъв начин и какво желаеме да реализираме, с цел да дадем посока какво може и какво не. Можем да си представим свят, в който всяка камера може да ви разпознава и следи, в който подправените вести и видеа изпълват напълно обществените ни мрежи, в който изкуственият разсъдък дефинира дали сте наети на избрана работа, или детето ви е признато, или не в избран университет. С този закон споделяме, че не желаеме да живеем в подобен свят ", съобщи тя.
В законодателството има ясни и строги ограничавания за това изкуственият разсъдък да не се употребява за следене на хора и да не нарушава гражданските права. „ Ако има отвлечено дете, обвинен терорист или нарушител, желаеме тези системи да могат да ни оказват помощ в такива избрани крайни случаи. Не желаеме тези системи да ни наблюдават непрестанно през нашия живот и тъкмо това успяхме да реализираме с този правилник. Имаме политическо съглашение за това по какъв начин да контролираме тази част на технологията ", разясни Ева Майдел.
Забранява се потреблението в обществената, кредитна система, както и за манипулиране или потребление на уязвимостите на потребителите. В някои страни изкуственият разсъдък се употребява не в интерес на обществото, а в интерес на властническия режим. В Китай да вземем за пример тази технология се употребява точно за този вид обществена, кредитна система. „ На базата на информация, събрана от разнообразни камери, интернет история, държание на обществени места Китай употребява изкуствения разсъдък, с цел да оцени така наречен „ преданост " на избран човек или компания и какъв риск имат. Т.е. в случай че забавиш заплащането на наема си, може управляващите да не ти разрешават да се качиш на градски превоз, в случай че критикуваш държавното управление в интернет, можеш да получиш по-високи налози. Ние сме изрично срещу в Европа за този тип потребление на изкуствения разсъдък и го забраняваме в регламента ", изясни евродепутатът.
В регламента е заложен и казусът с халюцинациите на изкуствения разсъдък.
„ В момента чатботове се употребяват от към 150 млн. души в целия свят. Ако има неточност в тях, тя би се популяризирала и мултиплицирала и за обществото и това би основало съществени проблеми. Затова слагаме ясни, строги правила: първо, данните да бъдат подготвени по избрани правила, по-късно да се вкарат доста високи равнища на киберсигурност и да има хора, които наблюдават по какъв начин се оправя този чатбот и дали изобщо прави работа. Също по този начин при всяко наше взаимоотношение с чатбот би трябвало да знаем, че имаме такова. Това също се планува в закона. "
Законът ще се ползва по два метода - на национално равнище и на равнище Еврокомисия. „ Тук става въпрос за така наречен високорискови сфери, които ще подлежат на прецизен надзор. Например, когато изкуственият разсъдък се употребява в банковото дело, от университети, учебни заведения, за наемане на хора в обществената сфера, националните институции ще имат малко повече пълномощия. В същото време ние доста добре разбираме, че тази технология е надалеч по-сложна от всяка една и има доста малко хора по света, които същински я схващат и могат да ревизират и ползват тези нови правила. Затова Европейска комисия ще сътвори специфичен офис, който ще се ситуира в Европейска комисия, който да може да подкрепя работата и да бъде в непрестанен контакт с фирмите, с цел да види дали тази регулация се ползва. Ще има и много съществени санкции, в случай че не се ползва ", изясни Ева Майдел.
Източник: cross.bg
КОМЕНТАРИ