Комитетът за изкуствен интелект на Съвета на Европа създава нов инструмент
Комитетът по изкуствен интелект (CAI) към Съвета на Европа одобри Методологията за оценка на рисковете и въздействията на системите с изкуствен интелект от позиция на правата на индивида, демокрацията и върховенството на закона (методологията HUDERIA). Това е първият по рода си инструмент, който дава насоки и е структуриран метод за осъществяване на оценки на риска и въздействието на системите с изкуствен интелект. Насочен е към подкрепяне използването на Рамковата спогодба за изкуствения разсъдък и правата на индивида, демокрацията и върховенството на закона — първото интернационално правно обвързващо съглашение в тази област в историята.
Методологията HUDERIA е особено създадена за отбрана и поощряване на човешките права, демокрацията и върховенството на закона. Както обществените, по този начин и частните участници могат да го употребяват за идентифициране и справяне с рисковете и въздействията върху човешките права, демокрацията и върховенството на закона през целия витален цикъл на системите с изкуствен интелект.
По създание HUDERIA прави оценка AI системите в по-широк обществен подтекст, признавайки, че въздействието на AI произтича от комплицираното взаимоотношение сред техническите системи и обществените структури. Методологията включва, наред с други неща, основаването на проект за понижаване на риска и минимизиране или елиминиране на разпознатите опасности, защитавайки обществото от евентуални вреди.
Например, в случай че се откри, че употребяваната система с изкуствен интелект е предубедена по отношение на избрани демографски групи, проектът за намаляване може да включва поправяне на логаритъма, използване на човешки контрол и/или използване на други подобаващи контроли.
Методологията изисква постоянни преоценки, с цел да се подсигурява, че AI системата продължава да работи безвредно и по метод, съчетаем със съответните отговорности за правата на индивида с развиването на подтекста и технологията. Този метод подсигурява, че обществеността е предпазена от опасности, зараждащи през целия витален цикъл на ИИ-системата.
CAI одобри методологията HUDERIA на своята 12-та пленарна среща, извършена в Страсбург от 26 до 28 ноември. През 2025 година той ще бъде допълнен от модела HUDERIA, който ще даде библиотека със познания, съдържаща поддържащи материали и запаси, в това число и гъвкави принадлежности и мащабируеми рекомендации.




