ARIA: проект, който разкрива тъмните страни на изкуствения интелект
NIST започва самодейност, която няма да разреши на машините да вредят на човечеството.
Националният институт по стандартизация и технологии (NIST) разгласи старта на новата стратегия „ Оценка на рисковете и въздействието на изкуствения разсъдък “ (ARIA, Assessing Risks and Impacts of AI) за оценка на сигурността и надеждността на изкуствения разсъдък. Програмата ще помогне на организациите и физическите лица да схванат до каква степен безвредна и ефикасна ще бъде дадена AI технология след нейното внедряване. Проектът се осъществя взаимно с Института за сигурност на изкуствения разсъдък.
За какво е нужна ARIA?
ARIA се появи в отговор на изпълнителната заповед на президента Байдън по отношение на сигурността на изкуствения разсъдък, подписана през 2021 година Проектът има за цел да сътвори сигурна и обективна екосистема за създаване и използване на усъвършенствани невронни мрежи. Основната цел на указа е да се подсигурява, че новите технологии са от изгода за обществото, а не основават закани.
Декретът е създаден посредством голям брой съвещания с специалисти в региона на технологиите, правото, както и с представители на бизнеса и гражданското общество. В него са посочени главните правила, които разработчиците и потребителите на изкуствен интелект би трябвало да съблюдават: бистрота, сигурност, отбрана на данните и правдивост.
„ За да разберем изцяло въздействието на ИИ върху нашето общество, би трябвало да го тестваме в действителни условия – и тъкмо това прави програмата ARIA “,
каза министърът на търговията на Съединени американски щати Джина Реймондо.
Тя съобщи, че самодейността е част от напъните на Министерството на търговията за осъществяване на заповедта на Байдън.
Участниците в ARIA ще правят оценка по какъв начин се показват технологиите в другите действителни сюжети, а освен в лабораторни условия. Това ще помогне за ранното идентифициране на възможни негативни въздействия. Лори Е. Локасио, шеф на NIST, акцентира, че ARIA ще поддържа работата на Института за сигурност на изкуствения разсъдък на Съединени американски щати и ще разшири уговорката на NIST към научната общественост.
Какво е направено до момента?
През януари 2023 година NIST разгласява документ, наименуван „ Рамка за ръководство на риска при изкуствения разсъдък “, който стана основа на програмата ARIA. В документа се показва по какъв начин да се употребяват количествени и качествени способи за разбор и мониторинг на заплахите в актуалния свят. ARIA ще създаде нови методологии и индикатори за оценка на това до каква степен добре се оправят AI системите в другите обществени контексти.
Резултатите от проучванията на ARIA ще оказват помощ на NIST и Института за сигурност на ИИ на Съединени американски щати да изградят надеждни системи, гарантиращи цялостна отбрана на потребителите и опазване на персоналния им живот.




