Предупреждения и регулации настъпват към изкуствения интелект
Предполага се, че след появяването на европейски закон за изкуствения разсъдък други райони от света ще заимстват детайли от новата норма (снимка: CC0 Public Domain)
Група специалисти по изкуствен интелект неотдавна подписаха предупредително писмо във връзка с неконтролираното софтуерно развитие; изказването се отнася до AI и го дефинира като „ риск с публичен мащаб “. Междувременно регулаторните органи в Европейски Съюз работят върху завършването на своите разпореждания по отношение на използването на генеративен AI, до момента в който в Съединени американски щати „ правят оценка рисковете “ от технологията. Ще бъде ли това задоволително?
Каквито и регулации да влязат в действие, те неизбежно ще обиден нечии ползи. Потребителите желаят да употребяват AI инструментите необезпокоявано, разработчиците не биха желали да се окажат отговорни за нещо, а и бизнесите биха желали да сграбчен наличните благоприятни условия час по-скоро.
Експерти с предизвестие за AI
Началото на месеца бе засенчено от предизвестие на група специалисти по отношение на рисковете от AI. То пристигна от Центъра за сигурност на AI. Беше малко, с едвам двайсетина думи: „ Намаляването на риска от изгубване поради AI би трябвало да бъде световен приоритет наред с други опасности от публичен мащаб като пандемии и нуклеарна война “.
още по темата
Колкото бе малко изказването, толкоз бе дълъг описът на подписалите се под него: стотици учени, преподаватели, откриватели, вложители, публицисти, политически съветници и други
Центърът за сигурност на изкуствения разсъдък е организация с нестопанска цел, учредена с концепция за „ понижаване на риска с публичен мащаб “ от навлизането на изкуствения разсъдък. Центърът изброява вероятните проблеми, които допуска, че AI може да породи, в това число потребление във война, дезинформация, радикализиране на хората посредством основаване на подбудително наличие, измами и манипулиране на логаритмите или „ неочаквана поява на нови качества или цели “, които не са планувани от основателите на AI.
Това ново изказване идва на бял свят не доста след отвореното писмо от Future of Life Institute през март 2023 година, в което също имаше предизвестие по отношение на заплахите от потреблението на AI. Писмото от март прикани фирмите-разработчици на логаритми за неестествен разсъдък да преустановят създаването за шест месеца, евентуално в изискванията на мораториум.
Европейски Съюз и нейният AI закон
Вече е известно, че Европейският съюз работи интензивно по основаването на регулация за изкуствения разсъдък. Планира се да се сътвори кодекс за държание в региона на изкуствения разсъдък още през идващите няколко седмици, съобщи неотдавна вицепрезидентът на Европейската комисия Маргрете Вестагер. Предложението приказва за външни одити и за водни знаци като част от вероятните „ защитни ограничения “ против злоупотребата със наличие, генерирано от AI.
Междувременно се работи и по изковаването на по-цялостна, широкообхватна регулация, отговорност на Европейската комисия. Макар че обичайно изработването на сходни правила лишава две-три години, всички са наясно, че светът не може да чака толкоз дълго. Законът на Европейски Съюз за изкуствения разсъдък е на работната маса и вероятно ще влезе в дневния ред на Парламента на Европейски Съюз напълно скоро.
Публична загадка е, че целият свят чака появяването на европейската регулация за изкуствения разсъдък, с цел да заимства от нея всичко, което може да се заимства. Подобен беше казусът с общия правилник за отбрана на персоналните данни GDPR – с въвеждането му в действие стана ясно, че това е най-добре премислената и добре дефинирана норма за запазване на персоналните данни; скоро след влизането й в действие редица страни от всички краища на света заимстваха метода на европейския GDPR.
По сходен метод в този момент се чака Европейски Съюз да „ бие пъртина “ в неразораното поле на изкуствения разсъдък. Целият свят се надява нормата, която европейците ще приложат, да бъде също толкоз добре дефинирана – и да заимстват каквото може от нея.
Междувременно групата на седемте страни също преглежда опцията за контролиране на генеративните AI. С това тя ще се опита да подсигурява, че AI е „ прецизен, благонадежден, безвреден и недискриминационен “, сподели ръководителят на Европейската комисия Урсула фон дер Лайен в коментар пред Ройтерс.
Съединени американски щати изследва „ рисковете и опциите “
Правителството на Съединени американски щати също прави стъпки в сходна посока. То работи върху проект за „ рационализиране на повсеместен и изчерпателен метод към рисковете и опциите, свързани с AI “, сподели представителят на Съвета за национална сигурност Адам Ходж в изказване, публикувано от Блумбърг.
Съобщава се, че в Съединените щати самостоятелните настроения в администрацията на президента Байдън са разграничени на две. Едната половина клонят към цялостна независимост за създаването и използването на AI, с цел да могат предприятията да останат конкурентоспособни. Другата половина поддържат проектите, сходни на тези на Европейски Съюз, за всеобхватно контролиране на AI.
Регулации и предприятия
За организациите, които създават артикули, ръководени от изкуствен интелект или хардуер и програмен продукт за работа с изкуствен интелект, пейзажът значи да останат нащрек в идните месеци. Те ще би трябвало да наблюдават напредъка на регулации като тези, препоръчани от Европейски Съюз.
Наред с тях може да има и други разпореждания, които касаят приложението на изкуствения разсъдък. Това може да са районни или пък секторни правила, които да бъдат въведени пред или към появяването на цялостните AI закони. Така да вземем за пример, в щата Калифорния към този момент има направено предложение за ограничение на потреблението на AI при наемане на работа.
Източник: technews.bg
КОМЕНТАРИ




