Европейският парламент одобри днес законодателния акт за изкуствения интелект, който

...
Европейският парламент одобри днес законодателния акт за изкуствения интелект, който
Коментари Харесай

Европарламентът прие окончателно регулациите за изкуствения интелект

Европейският парламент утвърди през днешния ден законодателния акт за изкуствения разсъдък, който подсигурява сигурността и зачитането на главните права на хората, като в същото време предизвиква нововъведенията. Новият закон има за цел да пази главните права, демокрацията, правилата на правовата страна и екологичната резистентност от високорисков изкуствен интелект (ИИ), оповестяват от българското посланичество на Екологичен потенциал.

Регламентът открива отговорности за изкуствения разсъдък въз основа на евентуалните опасности.
 Как се трансформира висшето обучение след навлизането на изкуствения разсъдък
Как се трансформира висшето обучение след навлизането на изкуствения разсъдък

Пред Money.bg приказва Барбара Щьотингер - декан на Академията за мениджъри на Виенския стопански университет (WU)

Забранени приложения

Новите правила не разрешават някои приложения с изкуствен интелект, които заплашват правата на жителите, в това число системи за биометрична категоризация, учредени на чувствителни характерности, и нецеленасочено добиване на лицеви изображения от интернет или от записи от видеонаблюдение за основаване на бази данни за различаване на лица. Ще бъдат неразрешени и системите за различаване на страсти на работното място и в учебните заведения, за обществено оценяване, прогнозиране на закононарушение (въз основа на профилиране или оценка на техните характеристики), както и ИИ, който манипулира човешкото държание или употребява уязвимостта на хората.
 Снимка 418853
Източник:

Изключения в региона на правоприлагането

Използването на системи за биометрична идентификация от правоприлагащите органи е неразрешено по принцип, с изключение на в изчерпателно изброени и в детайли избрани обстановки. Системи за биометрична идентификация в действително време може да се употребяват единствено в случай че са спазени строги гаранции, да вземем за пример потреблението на такива системи е лимитирано във времето и географския обсег и предстои на особено авансово правосъдно или административно позволение.

Те могат да се употребяват, да вземем за пример, за целеустремено търсене на изчезнало лице или попречване на терористично нахлуване. Употребата на такива системи постфактум (употреба на системи за екс-пост отдалечена биометрична идентификация) се смята за случай на потребление на високорискови системи с ИИ, който изисква правосъдно позволение по отношение на закононарушение.

Задължения за високорисковите системи

Предвидени са ясни отговорности и за други високорискови системи с ИИ (поради забележителните им евентуални вреди за здравето, сигурността, главните права, околната среда, демокрацията и правилата на правовата държава). Примерите за високорискови приложения на ИИ включват сериозна инфраструктура, обучение и професионално образование, претовареност, съществени частни и обществени услуги (напр. опазване на здравето, банково дело), избрани системи в региона на правоприлагането, миграцията и ръководството на границите, правораздаването и демократичните процеси (напр. оказване на въздействие върху изборите).

Подобни системи би трябвало да правят оценка и понижават рисковете, да поддържат регистри за използването, да бъдат транспарантни и точни и да подсигуряват човешки контрол. Трябва да се подсигурява правото на жителите за подаване на тъжби по отношение на системи с ИИ и за приемане на пояснения за решения, основани на високорискови системи с ИИ, които оказват доста влияние върху техните права.

Изисквания за бистрота

Системите за ИИ с общо предопределение и моделите, на които те се основават, следва да дават отговор на избрани условия за бистрота, да вземем за пример съблюдаване на законодателството на Европейски Съюз в региона на авторското право и издание на в детайли резюме на наличието, употребявано за образование на модела. Моделите на по-мощните системи за ИИ с общо предопределение, които биха могли да породят систематични опасности, ще бъдат подложени на спомагателни условия, в това число осъществяване на оценка на модела, оценяване и ограничение на систематичните опасности и докладване за произшествия.
 Регулациите идват: Брюксел утвърди първия в света закон за изкуствения разсъдък
Регулациите идват: Брюксел утвърди първия в света закон за изкуствения разсъдък

Ще спънат ли новите правила нововъведенията?

Освен това изкуствените или манипулираните изображения и аудио- или видеосъдържание (дълбинни имитации - deep fakes на английски) би трябвало да бъдат ясно обозначени като такива.

На национално ниво ще бъдат основани регулаторни лаборатории и ще се организират изпитвания в действителни условия, които би трябвало да бъдат налични за МСП и започващите предприятия, за да се създаде и образова реформаторски ИИ преди стартирането му на пазара.
Източник: money.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР