Вчера властите на ЕС публикуваха първия проект на Практически кодекс

...
Вчера властите на ЕС публикуваха първия проект на Практически кодекс
Коментари Харесай

ЕС публикува проект от правила, по които ИИ ще съществува на ниво човек

Вчера управляващите на Европейски Съюз разгласиха първия план на Практически кодекс за моделите с неестествен общ разсъдък (AGI), прочут също като „ мощен AI “ и „ ИИ на равнище човек “. Документът, който ще бъде финализиран до май идната година, обрисува насоки за ръководство на риска, проект за сходство и способи фирмите да избегнат огромни санкции.

Европейският „ Закон за изкуствения разсъдък “ влезе в действие на 1 август и в него е планувана опция за прибавяне на правила за ИИ с общо предопределение в бъдеще. Този проектодокумент — първия опит за изясняване, какво се чака от усъвършенстваните модели; на заинтригуваните страни се дава време да дават противоположна връзка и да предложат усъвършенствания, преди регламентите да влязат в действие.

Моделите въз основата на ИИ с общо предопределение се дефинират като системи, подготвени с обща изчислителна мощ от повече от 10²⁵ флопса. Компаниите, които се чака да бъдат обхванати от документа, са OpenAI, Гугъл, Meta, Anthropic и Mistral – този лист може да се усили.

Кодексът обгръща няколко аспекта на активност от разработчици на AI с общо предопределение: бистрота, съблюдаване на авторските права, оценка на риска и понижаване на техническите и управнически опасности. Разработчиците на AI би трябвало да разкриват информацията за уеб-скенерите, употребявани за образованието на моделите — това е значимо за притежателите на авторски права и основателите на наличие. Оценката на риска включва ограничения за попречване на киберпрестъпления, включване на дискриминационни материали в комплектите за образование и загуба на надзор върху AI.

Очаква се разработчиците на ИИ да формулират рамка за сигурност и сигурност (SSF). Този документ ще помогне за структуриране на политиките за ограничение на заканите и тяхното намаляване съразмерно на обособените систематични опасности. Предложените от Европейски Съюз регламенти обгръщат и механически области, в това число отбрана на тези модели, обезпечаване на резистентен на неточности надзор на достъпа и непрекъсната преоценка на тяхната успеваемост. Разделът, описващ механизмите за взаимоотношение с управляващите, планува използването на отчетност от самите разработчици: нужна е непрекъсната оценка на риска и, в случай че е належащо, присъединяване на специалисти от трети страни. Нарушаването на Закона за ИИ носи сериозна санкция до 35 милиона евро или 7% от световните годишни облаги, което от двете е по-голямо. Страните, наранени от законопроекта, могат да показват мнения до 28 ноември; документът ще бъде финализиран до 1 май 2025 година

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР