Комитетът по изкуствен интелект (CAI) към Съвета на Европа прие

...
Комитетът по изкуствен интелект (CAI) към Съвета на Европа прие
Коментари Харесай

Комитетът за изкуствен интелект на Съвета на Европа създава нов инструмент

Комитетът по изкуствен интелект (CAI) към Съвета на Европа одобри Методологията за оценка на рисковете и въздействията на системите с изкуствен интелект от позиция на правата на индивида, демокрацията и върховенството на закона (методологията HUDERIA). Това е първият по рода си инструмент, който дава насоки и е структуриран метод за осъществяване на оценки на риска и въздействието на системите с изкуствен интелект. Насочен е към подкрепяне използването на Рамковата спогодба за изкуствения разсъдък и правата на индивида, демокрацията и върховенството на закона — първото интернационално правно обвързващо съглашение в тази област в историята.

Методологията HUDERIA е особено създадена за отбрана и поощряване на човешките права, демокрацията и върховенството на закона. Както обществените, по този начин и частните участници могат да го употребяват за идентифициране и справяне с рисковете и въздействията върху човешките права, демокрацията и върховенството на закона през целия витален цикъл на системите с изкуствен интелект.

По създание HUDERIA прави оценка AI системите в по-широк обществен подтекст, признавайки, че въздействието на AI произтича от комплицираното взаимоотношение сред техническите системи и обществените структури. Методологията включва, наред с други неща, основаването на проект за понижаване на риска и минимизиране или елиминиране на разпознатите опасности, защитавайки обществото от евентуални вреди.

Например, в случай че се откри, че употребяваната система с изкуствен интелект е предубедена по отношение на избрани демографски групи, проектът за намаляване може да включва поправяне на логаритъма, използване на човешки контрол и/или използване на други подобаващи контроли.

Методологията изисква постоянни преоценки, с цел да се подсигурява, че AI системата продължава да работи безвредно и по метод, съчетаем със съответните отговорности за правата на индивида с развиването на подтекста и технологията. Този метод подсигурява, че обществеността е предпазена от опасности, зараждащи през целия витален цикъл на ИИ-системата.

CAI одобри методологията HUDERIA на своята 12-та пленарна среща, извършена в Страсбург от 26 до 28 ноември. През 2025 година той ще бъде допълнен от модела HUDERIA, който ще даде библиотека със познания, съдържаща поддържащи материали и запаси, в това число и гъвкави принадлежности и мащабируеми рекомендации.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР