ЕК предлага AI системите с висок риск да имат така

...
ЕК предлага AI системите с висок риск да имат така
Коментари Харесай

Европа ограничaва използването на AI в обществото


Европейска комисия предлага AI системите с висок риск да имат по този начин наречения „ ключ за ликвидиране ”
(снимка: CC0 Public Domain)

Използването на системи за лицево различаване за наблюдаване или логаритми, които вземат значими решения за хората, ще бъде неразрешено според препоръчани нови регламенти на Европейски Съюз по отношение на изкуствения разсъдък. Предложенията, които станаха публично притежание преди формалното им издание, дават обещание и строги нови правила за това, което се назовава „ високорисков AI ” . Това включва логаритми, употребявани от полицията и от организации при набиране на личен състав.

Проектът за новата норма се явява нещо като трети, „ междинен ” път сред правилото на безусловно свободния пазар, както се практикува в Съединени американски щати, и безусловно властническия метод, какъвто е налице в Китай. Очаква се оформянето, гласуването и въвеждането в деяние на новата норма да бъде мъчно, изпълнено с несъгласия.

Според предлагането, във връзка с високорисковите AI системи държавите-членки ще би трябвало да ползват доста по-голям контрол, в това число назначение на органи за оценка, които да тестват, сертифицират и инспектират тези системи.

Примерите за високорискови AI включват:

На процедура новата регулация ще засегне всички системи, свързани с охранително видеонаблюдение на обществени места, учебни заведения, лечебни заведения, полицейски служби и други

Освен че изисква новите системи за изкуствен интелект да имат човешки контрол, Европейска комисия предлага също по този начин системите с висок риск да имат по този начин наречения ключ за ликвидиране, който може да бъде или бутон за прекъсване, или някаква друга процедура за неотложно изключване на системата, в случай че е належащо.

Компаниите, които не се съобразят с новите условия, ще бъдат глобени. Те могат да бъдат санкционирани с до 4% от своите световни доходи – сходно на санкциите при GDPR.

Наред с всичко останало, новата норма изрично не разрешава практиката на установяване на „ обществен рейтинг ” при AI приложения – събитие, което се практикува в Китай и което към този момент носи неприятна популярност на AI системите в страната.

„ За нас, на европейско равнище, е значимо да предадем доста мощно обръщение и да определим стандартите във връзка с това до каква степен би трябвало да се стигне с тези технологии ”, разяснява Драгош Тудораче, демократичен член на Европейския парламент и началник на комисията по неестествен разсъдък. „ Поставянето на регулаторна рамка за това е наложително и е добре Европейската комисия да поеме в тази посока ”.
още по тематиката
Европейският политически анализатор Даниел Льофер от Access Now също е оптимистично надъхан като цяло. Той споделя, че Европа от дълго време търси „ трети ” път, който да откри златната среда сред опита на Съединени американски щати и Китай. В този смисъл новото законодателство е „ обещаващо ”.

Но, съгласно Льофер, има много „ червени флагчета ”. Едно от тях е да вземем за пример основаването на Европейски съвет за изкуствен интелект. „ Те ще имат голямо въздействие върху това, което се прибавя или изважда от високорисковия лист и от листата на възбраните ”, споделя той. С други думи, изключително значимо ще е тъкмо кой седи в съвета.

Льофер написа в Twitter, че определенията в проектозакона са прекомерно отворени за пояснение. Той добави, че предложенията би трябвало да бъдат „ разширени, с цел да включат всички системи за изкуствен интелект в обществения бранш, без значение от избраното им равнище на риск ”, тъй като общуването с държавната администрация е неизбежно за хората. „ Хората нормално нямат избор дали да взаимодействат със система за AI в обществения бранш ”, сподели Льофер.

Европейският център за нестопанско право, който способства за Бялата книга на Европейската комисия за изкуствения разсъдък, съобщи пред BBC, че в препоръчаното законодателство има „ доста неясноти и малки врати ”. „ Подходът на Европейски Съюз за дефиниране на бинарни данни с висок по отношение на невисок риск е нехаен в най-хубавия случай и рисков в най-лошия, защото му липсват подтекст и нюанси, нужни за комплицираната екосистема на AI, която съществува към този момент през днешния ден.

В прочут смисъл новината не е изненада, разясниха анализатори, защото президентът на Европейската комисия Урсула фон дер Лайен даде обещание незабавно да вкара законодателство за AI, още когато беше определена през 2019 година Но Лилиан Едуардс – специалист от от Университета в Нюкасъл – споделя, че проектозаконът неизбежно ще засегне софтуерната промишленост. „ Приветствам упоритостта, само че не можете да си мислите, че ще мине в този си тип ”, споделя тя.

Едуардс съпоставя метода с метода, по който Европейски Съюз контролира потребителските артикули, които би трябвало да дават отговор на избрани условия, с цел да бъдат импортирани. „ Това е доста по-трудно да се направи с изкуствения разсъдък, защото AI не постоянно е елементарен артикул ”, споделя тя. „ Неумолимо се насочвате към комерсиална война със Силициевата котловина или слабото правоприлагане ”.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА



Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР