ЕС публикува проект от правила, по които ИИ ще съществува на ниво човек
Вчера управляващите на Европейски Съюз разгласиха първия план на Практически кодекс за моделите с неестествен общ разсъдък (AGI), прочут също като „ мощен AI “ и „ ИИ на равнище човек “. Документът, който ще бъде финализиран до май идната година, обрисува насоки за ръководство на риска, проект за сходство и способи фирмите да избегнат огромни санкции.
Европейският „ Закон за изкуствения разсъдък “ влезе в действие на 1 август и в него е планувана опция за прибавяне на правила за ИИ с общо предопределение в бъдеще. Този проектодокумент — първия опит за изясняване, какво се чака от усъвършенстваните модели; на заинтригуваните страни се дава време да дават противоположна връзка и да предложат усъвършенствания, преди регламентите да влязат в действие.
Моделите въз основата на ИИ с общо предопределение се дефинират като системи, подготвени с обща изчислителна мощ от повече от 10²⁵ флопса. Компаниите, които се чака да бъдат обхванати от документа, са OpenAI, Гугъл, Meta, Anthropic и Mistral – този лист може да се усили.
Кодексът обгръща няколко аспекта на активност от разработчици на AI с общо предопределение: бистрота, съблюдаване на авторските права, оценка на риска и понижаване на техническите и управнически опасности. Разработчиците на AI би трябвало да разкриват информацията за уеб-скенерите, употребявани за образованието на моделите — това е значимо за притежателите на авторски права и основателите на наличие. Оценката на риска включва ограничения за попречване на киберпрестъпления, включване на дискриминационни материали в комплектите за образование и загуба на надзор върху AI.
Очаква се разработчиците на ИИ да формулират рамка за сигурност и сигурност (SSF). Този документ ще помогне за структуриране на политиките за ограничение на заканите и тяхното намаляване съразмерно на обособените систематични опасности. Предложените от Европейски Съюз регламенти обгръщат и механически области, в това число отбрана на тези модели, обезпечаване на резистентен на неточности надзор на достъпа и непрекъсната преоценка на тяхната успеваемост. Разделът, описващ механизмите за взаимоотношение с управляващите, планува използването на отчетност от самите разработчици: нужна е непрекъсната оценка на риска и, в случай че е належащо, присъединяване на специалисти от трети страни. Нарушаването на Закона за ИИ носи сериозна санкция до 35 милиона евро или 7% от световните годишни облаги, което от двете е по-голямо. Страните, наранени от законопроекта, могат да показват мнения до 28 ноември; документът ще бъде финализиран до 1 май 2025 година




