Европейският съюз ще се нуждае от поне още една година,

...
Европейският съюз ще се нуждае от поне още една година,
Коментари Харесай

Потенциални самоубийци търсят утеха в ChatGPT. ЕС не може да реши какво да прави с Изкуствения интелект

Европейският съюз ще се нуждае от най-малко още една година, с цел да разбере по какъв начин да употребява мощния си цифров закон, с цел да ограничи рисковете от ChatGPT.  Използването на чатбота с изкуствен интелект набра скорост в Европа.

Този месец OpenAI разгласи, че е минал значим предел за регулаторен надзор.

Новината, че повече от 120 милиона души употребяват функционалността за търсене на ChatGPT всеки месец, не е изненада за Европейската комисия.

Регулаторите към момента не са разбрали по какъв начин да се оправят с ChatGPT според мощния Закон за цифровите услуги на Европейски Съюз, който е в действие от началото на 2024 година, с цел да се подсигурява, че платформите минимизират рисковете си. Решение се чака едвам в средата на 2026 година

Това е тест за способността на Европейски Съюз да се оправи с рисковете, подбудени от огромните езикови модели, които бързо стават толкоз повсеместни в живота на хората, колкото и обичайните търсачки.

Мудността отразява обстоятелството, че водещият цифров закон е създаден преди ChatGPT да стане всеобщ, а неговите избрания не обгръщат изцяло чатботовете с изкуствен интелект. Твоа излага Брюксел на риск да изостане в оправянето с тези модели.

OpenAI неотдавна призна, че 1,2 милиона души всяка седмица водят диалози с ChatGPT. Предполага се, че някои възнамеряват самоубийство, а моделът на ChatGPT може да не се държи по предопределение в тези чувствителни обстановки.

„ За промишленост, привикнала с доброволни рамки за сигурност на изкуствения разсъдък и самоопределени бенчмаркове, правно обвързващият режим за надлежна инспекция на DSA може да се окаже сложна инспекция на действителността “, счита Матиас Вермулен, шеф в брюкселската адвокатска адвокатска фирма и консултантска организация AWO.

Колко необятна е използването

 

ChatGPT към този момент е контролиран от Закона за изкуствения разсъдък на Европейски Съюз. От август той би трябвало да прави оценка рисковете и да ги смекчава. Иначе рискува санкции до 15 милиона евро, в случай че не се съобрази със законодателството.

 

Но броят на потребителите към този момент слага чатбота в огромната лига, изстрелвайки се надалеч над прага от 45 милиона месечни консуматори за огромни платформи и търсачки според Закона за цифровите услуги (DSA).

След като попадне под DSA, рискува санкции до 6% от годишния си световен оборот.

 

Законът за цифровите услуги (DSA) е законодателство на Европейски Съюз, което влезе в действие през февруари 2024 година и има за цел да контролира посредническите цифрови услуги, като обществени мрежи, пазари и търсачки, като увеличи прозрачността и отчетността и отбрани главните права онлайн. Той се бори с противозаконното наличие онлайн, като дава на потребителите повече надзор, вкарва условия за бистрота на рекламите и основава механизми за докладване на нелегално наличие.

ChatGPT не е „ очакван “ от DSA, само че „ дава отговор на езика на закона “.

 

Съгласно структурата на закона, Европейски Съюз дефинира уеб страниците като доста огромни онлайн платформи и търсачки, по този начин наречените VLOP или VLOSE, които би трябвало да съблюдават най-строгите правила.

Основен въпрос е обсегът на обозначението за ChatGPT. Комисията би могла да го стесни до функционалностите за търсене на ChatGPT, да го класифицира като търсачка или да отвори обсега към цялото предложение – било то като платформа или услуга.

Какви условия се слагат към OpenAI и по какъв начин може да ги извърши, значително зависят от решението на Комисията.

OpenAI ще би трябвало да дефинира какъв брой съществени са рисковете, подбудени от неговия чатбот – в това число за изборите и публичното здраве. Ще би трябвало да ги смекчи и да осведоми Комисията в дълъг отчет. Колкото по-широко е обозначението, толкоз по-широк би трябвало да бъде този отчет.

Според закона за DSA, тези оценки на риска включват дизайна на техните системи за рекомендации и всяка друга съответна алгоритмична система. Това може да се окаже мъчно, в случай че Комисията се насочи към целия огромен езиков модел, който е в основата на ChatGPT и неговите отговори.

Едно тясно определение би могло да избави OpenAI от един ангажимент: Като търсачка, тя няма да е задължена да дава механизъм за известяван и деяние, който разрешава на потребителите да алармират за унищожаване на наличие.

Ако обозначението бъде направено в средата на 2026 година, това значи, че условията за DSA ще обиден OpenAI през последното тримесечие на идната година.

OpenAI може също да оспори обозначението, както други платформи несполучливо са правили в предишното, а всяко противоречие би удължило в допълнение процеса.

Твърде доста закони?

 

Остават основни въпроси по отношение на това по какъв начин двата съществени закона, отнасящи се до изкуствения разсъдък и платформите, се припокриват.

Законът за изкуствения разсъдък и Законът за осведомителните технологии са проектирани да съществуват по едно и също време в случаите, когато изкуственият разсъдък е интегриран в цифрови услуги, като да вземем за пример AI Overviews на Гугъл. Те не са проектирани с мисъл за по този начин наречените отвесно интегрирани снабдители на изкуствен интелект като OpenAI.

Двата закона се основават на две разнообразни рамки за риска. Платформите би трябвало да оценят към кои категории риск попадат и да поправят услугите си по подобаващ метод.

Тези рамки за риска не са изцяло съгласувани. Законът за изкуствения разсъдък гласи, че моделите би трябвало да бъдат класифицирани като неприемливи, високи, лимитирани или минимални или никакви опасности. Платформите и търсачките би трябвало да дефинират и смекчат четири типа „ систематични опасности “, като да вземем за пример гражданска честност, избори, публично здраве и съществени права.

Но според Закона за изкуствения разсъдък, функционалностите, интегрирани във VLOPSE, като да вземем за пример AI Overviews на Гугъл, се одобряват за съответстващи на разпоредбите за изкуствен интелект.

 

Това значи, че някои аспекти на регулирането, да вземем за пример дезинформацията и подправените известия, са „ поети от DSA “. Други опасности, да вземем за пример потреблението на ChatGPT, остават в границите на Закона за изкуствения разсъдък.

Възможно е да има пропуски в метода, по който компанията прави оценка риска от своите услуги, защото двете рамки не са изцяло съгласувани.

Politico/Превод:SafeNews

Още вести четете в: Свят, Темите на деня За още настоящи вести: Последвайте ни в Гугъл News
Източник: safenews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР