OpenAI, създателят на ИИ-чатбота ChatGPT, лобира пред Европейския съюз за

...
OpenAI, създателят на ИИ-чатбота ChatGPT, лобира пред Европейския съюз за
Коментари Харесай

OpenAI успешно лобира в ЕС за по-мек подход към регулирането на ИИ

OpenAI, основателят на ИИ-чатбота ChatGPT, лобира пред Европейския съюз за по-мек метод към създаването на законодателство, регулиращо потреблението на генеративен AI, написа Time, цитирайки копия от получени документи на Европейската комисия.

Според източника, OpenAI се е обърнал към европейските законодатели с молба да създадат няколко ремонти в плана на „ Закона за изкуствения разсъдък “. По-специално, компанията предложи системите за ИИ с общо предопределение (GPAI) като OpenAI ChatGPT и DALL-E да не бъдат класифицирани като „ високорискови “, което би им наложило най-високи отговорности за сигурност и бистрота. OpenAI декларира, че единствено компании, които категорично ползват AI във високорисковите области и задания, би трябвало да съблюдават разпоредбите за тази категория. „ Самата GPT-3 не е система с висок риск, само че има благоприятни условия, които евентуално биха могли да бъдат употребявани в случаи на приложимост с висок риск “ — споделя OpenAI в формалния документ, изпратен до чиновниците на Комисията и Съвета на Европейски Съюз през септември 2022 година

През юни 2022 година се организира среща сред представители на OpenAI и Европейската комисия за изясняване на рисковите категории, препоръчани в плана на Закон за изкуствения разсъдък. „ Те бяха загрижени, че AI системите с общо предопределение ще бъдат включени в листата с висок риск и че повече системи по дифолт ще бъдат категоризирани като високорискови “ — се споделя в формалния протокол от срещата. Според източник на Time от Европейската комисия, на срещата представители на OpenAI са изразили угриженост, че възприеманото на свръхрегулиране може да повлияе на нововъведенията в региона на изкуствения разсъдък.

Изглежда, че лобирането на OpenAI е значително сполучливо — GPAI не е категоризиран като високорисков в окончателния план на закон за ИИ на Европейски Съюз, утвърден на 14 юни. Той обаче слага по-големи условия към прозрачността на „ базовите модели “ – мощни AI системи като GPT-3, които могат да се употребяват за разнообразни задания. Това ще изисква от фирмите да правят оценки на риска и да разкриват дали материали, предпазени с авторски права, са били употребявани за образование на техните AI-модели.

Говорител на OpenAI сподели пред Time, че OpenAI поддържа включването на „ базови модели “ като обособена категория в закона за ИИ, макар че компанията е избрала да не разкрива източниците си на данни за образование на своите ИИ-модели с опасения от правосъдни каузи за нарушение на авторски права.

Ще мине доста време, преди Законът за ИИ на Европейски Съюз да влезе в действие. Очаква се той да бъде утвърден в края на тази година, а влизането му в действие може да отнеме до две години.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР