Нови правила за използването на системи с изкуствен интелект влизат в сила в ЕС
Сподели
От през днешния ден в Европейския съюз се ползват нови правила, свързани с регулирането на потреблението на изкуствения разсъдък (ИИ). Те са част от регламента, наименуван Акт за изкуствения разсъдък, оповестява ДПА.
Този закон в Европейски Съюз за изкуствения разсъдък е първият в света, който цели да обезпечи сигурността, етиката и надеждността на ИИ системите. Предназначението му е да подсигурява виновното създаване и приложимост на технологиите с ИИ, прецизира формалният уебсайт на Европейския съюз.
Новите правила постановат на доставчиците и производителите на ИИ технологии отговорности да контролират внедряването им в единния пазар на Европейски Съюз.
Актът адресира риска, произлизащ от използването на изкуствения разсъдък, в това число преднамереност, дискриминация и дефекти в отчетността. Той също по този начин предизвиква нововъведенията и поддържа внедряването на ИИ.
Според регламента, потреблението на ИИ стратегии, които експлоатират уязвимостта на хора, е неразрешено. Също по този начин е неприемливо да се ползват техники за операция на подсъзнателно равнище или поведенчески оценки, каквито се употребяват в Китай за налагане на наказания при несъмнено държание.
„ Развитието на системите с изкуствен интелект има огромен капацитет за принос към обществото, икономическия напредък и нововъведенията в Европейски Съюз, увеличавайки световната конкурентоспособност “, показват от Европейския съюз.
В прессъобщението се акцентират и „ нови опасности, свързани със сигурността на потребителите “. Тези опасности засягат както физическата сигурност, по този начин и главните права на жителите, отбелязва Европейски Съюз.
Определени мощни ИИ модели, които сега се употребяват всеобщо, „ могат да съставляват систематични опасности “, предизвестява Европейският съюз.
Регламентът не разрешава използването на ИИ системи за разбор на прочувственото положение на индивидите по време на осъществяването на служебните им задължения. Това е позволено само за медицински цели или за обезпечаване на сигурността. Например, ИИ система може да предизвести водач за признаци на отмалялост.
Забранено е потреблението на ИИ техники за разбор на данни от видеонаблюдение, в случай че това нарушава правата на индивидуите. Полицията и другите органи за сигурност обаче могат да употребяват технологии за лицево различаване при разкриването на съществени закононарушения, като трафик на хора и тероризъм.
Системите с ИИ, предопределени за работа в рискови среди, ще би трябвало да извършват по-високи стандарти, които включват бистрота, акуратност и киберсигурност. Те ще нуждаят от лицензиране от профилирани институции преди да могат да бъдат употребявани в Европейски Съюз.
Новият орган на Комисията, наименуван Служба за изкуствен интелект, ще oversees приложението на регламента в границите на Европейския съюз.
Максималната санкция, която може да бъде наложена под Актa за изкуствения разсъдък, може да доближи до 35 милиона евро или до 7% от годишните доходи на съответната компания.
Източник БТАЗа още забавни вести, изявленията, разбори и мнения харесайте!
От през днешния ден в Европейския съюз се ползват нови правила, свързани с регулирането на потреблението на изкуствения разсъдък (ИИ). Те са част от регламента, наименуван Акт за изкуствения разсъдък, оповестява ДПА.
Този закон в Европейски Съюз за изкуствения разсъдък е първият в света, който цели да обезпечи сигурността, етиката и надеждността на ИИ системите. Предназначението му е да подсигурява виновното създаване и приложимост на технологиите с ИИ, прецизира формалният уебсайт на Европейския съюз.
Новите правила постановат на доставчиците и производителите на ИИ технологии отговорности да контролират внедряването им в единния пазар на Европейски Съюз.
Актът адресира риска, произлизащ от използването на изкуствения разсъдък, в това число преднамереност, дискриминация и дефекти в отчетността. Той също по този начин предизвиква нововъведенията и поддържа внедряването на ИИ.
Според регламента, потреблението на ИИ стратегии, които експлоатират уязвимостта на хора, е неразрешено. Също по този начин е неприемливо да се ползват техники за операция на подсъзнателно равнище или поведенчески оценки, каквито се употребяват в Китай за налагане на наказания при несъмнено държание.
„ Развитието на системите с изкуствен интелект има огромен капацитет за принос към обществото, икономическия напредък и нововъведенията в Европейски Съюз, увеличавайки световната конкурентоспособност “, показват от Европейския съюз.
В прессъобщението се акцентират и „ нови опасности, свързани със сигурността на потребителите “. Тези опасности засягат както физическата сигурност, по този начин и главните права на жителите, отбелязва Европейски Съюз.
Определени мощни ИИ модели, които сега се употребяват всеобщо, „ могат да съставляват систематични опасности “, предизвестява Европейският съюз.
Регламентът не разрешава използването на ИИ системи за разбор на прочувственото положение на индивидите по време на осъществяването на служебните им задължения. Това е позволено само за медицински цели или за обезпечаване на сигурността. Например, ИИ система може да предизвести водач за признаци на отмалялост.
Забранено е потреблението на ИИ техники за разбор на данни от видеонаблюдение, в случай че това нарушава правата на индивидуите. Полицията и другите органи за сигурност обаче могат да употребяват технологии за лицево различаване при разкриването на съществени закононарушения, като трафик на хора и тероризъм.
Системите с ИИ, предопределени за работа в рискови среди, ще би трябвало да извършват по-високи стандарти, които включват бистрота, акуратност и киберсигурност. Те ще нуждаят от лицензиране от профилирани институции преди да могат да бъдат употребявани в Европейски Съюз.
Новият орган на Комисията, наименуван Служба за изкуствен интелект, ще oversees приложението на регламента в границите на Европейския съюз.
Максималната санкция, която може да бъде наложена под Актa за изкуствения разсъдък, може да доближи до 35 милиона евро или до 7% от годишните доходи на съответната компания.
Източник БТАЗа още забавни вести, изявленията, разбори и мнения харесайте!
Източник: debati.bg
КОМЕНТАРИ




