Нови правила за прозрачност на изкуствените интелекти приеха в ЕС
В Европейския съюз през днешния ден влизат в действие нови правила за бистрота за основани на изкуствен интелект езикови модели с отворен достъп като ChatGPT и Gemini. Новите правила са част от Закона за изкуствения разсъдък, признат предходната година.
Съгласно новите условия разработчиците би трябвало да дават информация за това по какъв начин работят техните модели и какви данни са употребявали за образованието им. За по-напредналите ИИ системи, които могат да основат обилни опасности за обществото, се изисква и подробна документи за ограниченията за сигурност.
Една от задачите на законодателството е да ускори отбраната на авторските права. От в този момент нататък разработчиците ще би трябвало да оповестяват източниците на данните, употребявани за образование на техните модели, както и дали са употребявали автоматизирано събиране на информация от интернет. Освен това те ще би трябвало да разказват какви стъпки са подхванати за отбрана на интелектуалната благосъстоятелност и да обезпечават способи за връзка с носителите на права.
Въпреки това няколко организации на създатели, актьори и издатели показаха неодобрение, че законът не е задоволително непоколебим. Германска самодейност за авторското право уточни в взаимна декларация, че разпоредбите няма да бъдат ефикасни, в случай че не се изисква ясно изтъкване на съответните набори от данни или уеб страници, употребявани при образованието.
Новите разпореждания разрешават на обособени лица да съдят снабдители на основаващи се на ИИ услуги, само че действителният надзор от страна на Европейската работа за изкуствения разсъдък ще стартира на по-късен стадий.
При нарушавания може за бъдат наложени санкции до 15 милиона евро или 3% от общия годишен оборот на компанията. За да улесни използването на закона, Европейската комисия разгласява насоки и кодекс за държание. Компанията Гугъл, разработчик на модела Gemini, съобщи, че има намерение да подпише кодекса, само че предизвести, че несъразмерните регулации може да лимитират нововъведенията.
Съгласно новите условия разработчиците би трябвало да дават информация за това по какъв начин работят техните модели и какви данни са употребявали за образованието им. За по-напредналите ИИ системи, които могат да основат обилни опасности за обществото, се изисква и подробна документи за ограниченията за сигурност.
Една от задачите на законодателството е да ускори отбраната на авторските права. От в този момент нататък разработчиците ще би трябвало да оповестяват източниците на данните, употребявани за образование на техните модели, както и дали са употребявали автоматизирано събиране на информация от интернет. Освен това те ще би трябвало да разказват какви стъпки са подхванати за отбрана на интелектуалната благосъстоятелност и да обезпечават способи за връзка с носителите на права.
Въпреки това няколко организации на създатели, актьори и издатели показаха неодобрение, че законът не е задоволително непоколебим. Германска самодейност за авторското право уточни в взаимна декларация, че разпоредбите няма да бъдат ефикасни, в случай че не се изисква ясно изтъкване на съответните набори от данни или уеб страници, употребявани при образованието.
Новите разпореждания разрешават на обособени лица да съдят снабдители на основаващи се на ИИ услуги, само че действителният надзор от страна на Европейската работа за изкуствения разсъдък ще стартира на по-късен стадий.
При нарушавания може за бъдат наложени санкции до 15 милиона евро или 3% от общия годишен оборот на компанията. За да улесни използването на закона, Европейската комисия разгласява насоки и кодекс за държание. Компанията Гугъл, разработчик на модела Gemini, съобщи, че има намерение да подпише кодекса, само че предизвести, че несъразмерните регулации може да лимитират нововъведенията.
Източник: frognews.bg
КОМЕНТАРИ




