Европейският съюз ще се нуждае от поне още една година,

...
Европейският съюз ще се нуждае от поне още една година,
Коментари Харесай

ЕС не е сигурен какво да прави с ChatGPT

Европейският съюз ще се нуждае от най-малко още една година, с цел да реши по какъв начин да ползва своята цифрова регулаторна рамка, предопределена да ограничи рисковете, свързани с ChatGPT.

Използването на чатбота с изкуствен интелект в Европа пораства стремглаво, а този месец OpenAI разгласи, че е достигнала значим предел за регулаторен контрол. Според двама чиновници, представени от Politico, новината, че над 120 милиона души употребяват ChatGPT като търсачка всеки месец, не е изненадала Европейската комисия.

Въпреки това регулаторите към момента не са намерили явен метод за използването на Акта за цифровите услуги (DSA) по отношение на ChatGPT. Законът, настоящ от началото на 2024 година, задължава огромните онлайн платформи да лимитират рисковете, произлизащи от техните логаритми. Решение по проблема се чака едвам в средата на 2026 година, отбелязва почитан представител на Комисията.

Този случай е тест за способността на Европейски Съюз да се оправя с рисковете, произлизащи от огромните езикови модели – технологии, които към този момент навлизат в всекидневието на хората по този начин, както в миналото търсачките трансформираха интернет.

Бавният прогрес отразява обстоятелството, че цифровият закон е направен още преди ChatGPT да навлезе в всеобща приложимост, а дефинициите му не обгръщат изцяло чатботовете с изкуствен интелект. Така Брюксел рискува да изостане от софтуерното развиване точно в миг, когато обвързваните с него опасности стават все по-очевидни.

OpenAI неотдавна призна, че всяка седмица към 1,2 милиона души водят диалози с ChatGPT, които демонстрират, че обмислят самоубийство. Компанията добави, че „ в някои редки случаи моделът може да не реагира по подобаващ метод в сходни чувствителни обстановки “.

„ За една промишленост, привикнала с доброволни правила за сигурност и лични стандарти, правно обвързващият режим на наложителна инспекция по DSA може да се окаже сложен конфликт с действителността, “ разяснява Матиас Вермюлен, шеф на брюкселската правна и консултантска организация AWO.

„ OpenAI ще би трябвало доста да увеличи стандартите си и няма да може просто да копира досегашния си метод, “ прибавя той.

Компанията не отговори директно на рецензиите, като единствено насочи към своите онлайн страници с информация за това по какъв начин съблюдава условията на DSA. Тя също посочи, че цифрата от 120 милиона консуматори се отнася само до потреблението на търсачката в ChatGPT, а не до цялата платформа.

Как ще бъде систематизиран ChatGPT

ChatGPT към този момент попада под регулацията на Закона за изкуствения разсъдък (AI Act), който задължава фирмите да правят оценка и лимитират рисковете, произлизащи от техните модели. От август 2025 година нарушаването на тези условия може да докара до санкции до 15 млн. евро.

Бързият растеж на потребителите обаче слага ChatGPT и в обсега на Акта за цифровите услуги. С над 120 милиона консуматори месечно, платформата надвишава неведнъж прага от 45 милиона дейни месечни консуматори, избран от Европейски Съюз за „ доста огромни онлайн платформи “ и търсачки.

След като бъде публично систематизиран като такава платформа, ChatGPT ще може да бъде глобяван с до 6% от годишния световен оборот на OpenAI при неспазване на разпоредбите.

„ ChatGPT не беше очакван от закона, само че попада в неговия обсег, “ изяснява пред POLITICO проф. Мартин Хусовец от Лондонското учебно заведение по стопанска система.

Съгласно закона Европейската комисия може да класифицира онлайн услугите като доста огромни платформи или търсачки (VLOPs/VLOSEs), които подлежат на най-строгите условия за бистрота и отчетност.

„ Основният въпрос е до каква степен ще се простира определението за ChatGPT, “ споделя проф. Йорис ван Хобокен от Свободния университет в Брюксел.

Комисията може да избере тясна формулировка, която да обгръща единствено търсачната функционалност на ChatGPT и да го класифицира като търсачка. Алтернативно, може да приложи по-широко определение, което включва цялата услуга – като цифрова платформа или онлайн снабдител.

От това решение ще зависи какви тъкмо отговорности ще има OpenAI и по какъв начин ще би трябвало да ги извършва. Компанията ще бъде задължена да оцени рисковете, които чатботът ѝ може да съставлява за изборите, публичното здраве и разпространяването на дезинформация, да предприеме ограничения за ограничението им и да рапортува в детайли пред Европейската комисия. Колкото по-широка е дефиницията, толкоз по-обемна ще бъде и тази оценка.

Според DSA оценките би трябвало да обгръщат „ дизайна на алгоритмичните системи за рекомендации и всички други съответстващи алгоритмични механизми “. Това би могло да се окаже предизвикателство, в случай че Комисията реши да включи целия огромен езиков модел, който стои в основата на ChatGPT, а освен резултатите, които потребителите получават в търсачката.

По-тясна формулировка би могла да освободи OpenAI от някои отговорности – да вземем за пример от условието да обезпечи механизъм, посредством който потребителите да могат да алармират за унищожаване на наличие.

Ако решението бъде взето през средата на 2026 година, новите правила по закона ще влязат в действие за OpenAI в края на идната година. Компанията има право да апелира определението, както са правили и други платформи в предишното – развой, който може да удължи доста влизането на регулацията в действие.

Прекалено доста закони?

Остават неясноти по отношение на това по какъв начин се припокриват двата съществени европейски закона за изкуствения разсъдък и за онлайн платформите.

AI Act и DSA са замислени да се допълват, когато AI е интегриран в цифрови услуги – да вземем за пример в Гугъл AI Overviews, разяснява Жоао Педро Кинтайс, доцент по право на информацията в Университета на Амстердам. Но те не са основани предвид на така наречен отвесно интегрирани AI компании, каквато е OpenAI.

Двата закона се базират на разнообразни рамки за оценка на риска. AI Act класифицира моделите съгласно равнището на риск – от „ недопустим “ и „ висок “ до „ стеснен “ или „ невисок риск “. От своя страна DSA задължава платформите да разпознават и лимитират четири съществени вида систематични опасности – свързани с изборите, публичното здраве, гражданската сигурност и главните права.

Това основава празнини и припокривания: някои опасности, като дезинформация и дийпфейк, попадат под DSA, до момента в който други – да вземем за пример потреблението на ChatGPT при наемане на работа – остават в обсега на AI Act.

Кинтайс предизвестява, че несъгласуваността сред двете рамки може да докара до пропуски в оценката на риска от страна на фирмите. Той добавя, че OpenAI евентуално ще се възползва и от правния имунитет, който освобождава платформите и търсачките от отговорност за наличието, оповестено от потребителите им.
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР