Повечето AI приложения се считат от европейските регулатори за такива

...
Повечето AI приложения се считат от европейските регулатори за такива
Коментари Харесай

Законът на ЕС за AI влезе в сила. Какво да очакваме?


Повечето AI приложения се смятат от европейските регулатори за такива с невисок риск
(снимка: CC0 Public Domain)

Европейският закон за изкуствения разсъдък влезе в действие в четвъртък, 1 август 2024 година Разпоредбите на документа ще се ползват поетапно доникъде на 2026 година Само за шест месеца Европейски Съюз възнамерява да наложи забрани за няколко използва на AI в характерни сюжети, като да вземем за пример потребление на отдалечени биометрични данни от правоприлагащите органи на публични места.

Законът за изкуствения разсъдък класира AI приложенията въз основа на евентуални опасности. При този метод множеството приложения на изкуствения разсъдък се смятат за „ невисок риск ” , тъй че въобще не биха били обект на контролиране, отбелязва TechCrunch.

Нивото на „ стеснен риск ” се ползва за AI технологии като чатботове или принадлежности, които могат да се употребяват за основаване на дълбоки имитации (дийпфейк). От тях се изисква да дават равнище на бистрота, което не подвежда потребителите.

„ Високорисковите ” AI приложения включват биометрична обработка и различаване на лица, основан на AI медицински програмен продукт или потребление на AI в области като обучение и работа. Такива системи би трябвало да бъдат регистрирани в базата данни на Европейски Съюз и техните разработчици би трябвало да подсигуряват сходство с условията за ръководство на риска и качеството.

Законът за изкуствения разсъдък планува многостепенна система от санкции : санкции до 7% от световния годишен оборот за потребление на неразрешени AI приложения, до 3% за нарушение на други отговорности и до 1,5% за даване на подправени информация за регулаторите.

Отделен раздел от новия закон визира разработчиците на по този начин наречения „ Изкуствен разсъдък с общо предопределение ” (GPAI) . Европейски Съюз също възприе учреден на риска метод към GPAI, като прозрачността е основно условие за разработчиците на такива системи. Очаква се единствено разработчиците на най-мощните модели да бъдат принудени да правят оценки на риска и да подхващат ограничения за намаляване.

Все още не са създадени съответни рекомендации за разработчиците на GPAI, защото няма опит в правното използване на новия закон. AI ​​Office, стратегическият контролен орган за AI ​​екосистемата, започва консултация и насърчи разработчиците да вземат участие в процеса. Кодексът за приложение на AI би трябвало да бъде изцяло приключен до април 2025 година

Наръчникът „ Artificial Intelligence Law Playbook ” , оповестен от OpenAI в края на предишния месец, гласи, че компанията чака да „ работи в тясно съдействие с органите на Европейски Съюз за ръководство на AI и други, до момента в който новият закон се ползва през идващите месеци ”, което включва правене на техническа документи и други насоки за GPAI снабдители и разработчици на модели.

„ Ако вашата организация се пробва да дефинира по какъв начин да съблюдава Закона за AI, първо би трябвало да опитате да класифицирате всички AI системи по обсег. Определете кои GPAI и други AI системи употребявате, определете по какъв начин са класифицирани и помислете какви отговорности произтичат от вашите случаи на приложимост. Тези проблеми могат да бъдат комплицирани и би трябвало да се консултирате с юрист ”, се споделя в управлението.
Източник: technews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР