Подходът е реактивен за разлика от проактивното регулиране на ЕСАмерикански

...
Подходът е реактивен за разлика от проактивното регулиране на ЕСАмерикански
Коментари Харесай

Съдии, а не политици ще определят AI правилата в САЩ

Подходът е реактивен за разлика от самодейното контролиране на Европейски Съюз

Американски адвокати загатват, че спорът сред разработчиците на AI и създателите може да приключи с появяването на система за лицензиране и хонорари (снимка: CC0 Public Domain)

Изглежда, че съдилищата, а не политиците, ще бъдат тези, които ще дефинират разпоредбите и рестриктивните мерки за създаването и използването на системи с изкуствен интелект в Съединени американски щати. Този метод фрапантно се разграничава от европейския.

Наскоро в щатите стартира следствие: дали OpenAI е нарушил законите за отбрана на потребителите, като е “скрапирал “ онлайн данните на милиони хора, с цел да образова логаритъма на своя AI чатбот ChatGPT. Междувременно художници, създатели и даже притежатели на снимкови библиотеки съдят фирмите за изкуствен интелект като OpenAI, Stability AI и Meta. Обвинителите настоявам, че въпросните компании са нарушили законите за авторското право, като са обучавали моделите си върху авторски произведения, без да дават никакво самопризнание или заплащане.

Ако правосъдните процедури се окажат сполучливи, те биха могли да принудят OpenAI, Meta, Microsoft и други компании да трансформират метода, по който построяват AI. Може би даже ще се намерят нови способи за възнаграждаване на актьори, създатели и други създатели – за това, че творчеството им се употребява като обучителни данни за AI модели. Навярно даже ще се развие цяла система за лицензиране и хонорари?

Всичко това се задава на хоризонта, до момента в който политиците не престават да приказват за основаването на закони за изкуствения разсъдък.

Бавното изковаване на законите

Бумът на генеративните системи с изкуствен интелект подтикна някои американски политици да заговорят за приемането на характерни закони за изкуствения разсъдък. Въпреки това е малко евентуално сходно законодателство да бъде признато в границите на година, споделя Бен Уинтърс, старши консултант в Electronic Privacy Information Center. Причината е в разделянето в Конгреса и интензивното лобиране от страна на софтуерните компании. Дори най-видният опит за основаване на правила за изкуствения разсъдък в Съединени американски щати, а точно рамката “SAFE Innovation ” на сенатор Чък Шумър, не включва съответни оферти за закон.

Някои локални политици припомнят, че през това време Европейски Съюз работи интензивно по основаването на своя лична норма за контролиране на AI. Говори се, че целият свят чака с неспокойствие да види резултата от този план. Той вероятно ще се трансформира в пример в световен мащаб. Така най-малко се случи с нормата за отбрана на персоналните данни GDPR, която бе подготвяна дълго и усърдно и в последна сметка стана модел за подражателство за страните отвън Европейски Съюз.

Тогава какво следва за американците, до момента в който техните политици се бавят с подготовката на закони за AI? „ Изглежда, че по-простият път [към регулирането на AI е] да се стартира със съществуващите закони “, споделя Сара Майерс Уест, ръководещ шеф на AI Now Institute, изследователска група.

А това ще значи правосъдни каузи.

Съдът като път

Съединени американски щати са пословични с воденето на правосъдни каузи защо ли не. Съществуващите там правила дават доста оръжия на тези, които споделят, че правата им са били накърнени – в тази ситуация от фирмите за ИИ.

Най-скорошният образец е комикът и създател Сара Силвърман. Тя твърди, че OpenAI и Meta са “скрапирали “ нелегално нейните материали в интернет, които са предпазени с авторски права, с цел да обучат AI моделите си. Твърденията на дамата са сходни на тези на група художници в различен колективен иск, който твърди, че известен AI програмен продукт за генериране на изображения е употребявал авторски изображения на въпросните художници, само че без тяхното единодушие.

Microsoft, OpenAI и AI инструментът за програмиране Copilot на GitHub също са изправени пред групов иск. В него пък се твърди, че AI средствата разчитат на „ софтуерно пиратство в невиждан мащаб “, защото системите за програмиране се учат на база на действителен програмен код, “скрапиран “ от уеб страници.

Разследвания и правосъдни каузи може да завалят и от страна на държавни институции. И те са съществено средство за смяна. Една държавна организация може да осъди частните компании по метод, който да промени нормативната основа в страната.

Например, Федералната комерсиална комисия може да изиска OpenAI да заплати санкции или да изтрие всички данни, които са били нелегално употребявани, та даже и да да изтрие логаритмите, които са употребявали нелегално събраните данни, споделя Марк Ротенберг, президент и създател на Центъра за изкуствен интелект и цифрова политика (CAIDP) – организация с нестопанска цел.

В най-крайния случай ChatGPT може да бъде свален офлайн. Има подобен казус към този момент: организацията накара компанията за диетични приложения Weight Watchers да изтрие своите данни и логаритми през 2022 година след нелегално събиране на данни за деца.

Други държавни органи също могат да се намесят, да вземем за пример правоприлагащите организации могат да стартират свои лични следствия. Бюрото за финансова отбрана на потребителите да вземем за пример алармира, че изследва потреблението на AI чатботове в банкирането.

Трудни правосъдни битки

Кога ще се появят резултатите от правосъдните каузи? Може да отнеме най-малко няколко години, преди груповите искове да доведат до вземането на значими решения.

Много от правосъдните каузи, заведени тази година, ще бъдат отхвърлени от съдиите като прекомерно широкобхватни, счита Мехтаб Хан, непрекъснат помощник в Юридическия факултет на Йейл, който специализира в интелектуалната благосъстоятелност, ръководството на данни и етиката на AI. Но тези каузи все ще послужат на значима цел. Адвокатите “хвърлят необятна мрежа и ще гледат какво ще се хване “. Това разрешава отсега нататък да се оформят по-прецизни правосъдни каузи, които могат да накарат фирмите да трансформират метода, по който построяват и употребяват своите AI модели.

Съдебните каузи могат също по този начин да принудят фирмите да подобрят своите практики за документиране на данни, споделя Хан. В момента софтуерните компании имат доста обикновена визия какви данни влизат в техните AI модели. По-добрата документи събирането и потреблението на данните е в положение да разкрие всевъзможни противозаконни практики. И компаниите имат претекст да подобрят практиките си за документите, тъй като въпреки това това може да им помогне да се защитят в съда.

Потенциалът на реактивния метод

Американските адвокати признават, че този метод – да се чака резултат от правосъдните каузи, вместо да се основават закони – е по-скоро реактивен. С това той се отличава от метода на работа в други страни, където управляващите желаят да предотвратят най-лошите последствия от AI и работят самодейно.

Надеждата е, че реактивният метод въпреки всичко ще донесе някои на практика изгоди. Редица юристи показват случая с Napster, P2P системата за шерване на музика. Компанията беше съдена от звукозаписните компании за нарушение на авторски права и това докара до удивително дело по отношение на честната приложимост на музика. Споразумението с Napster постла пътя за компании като Apple, Spotify и други да стартират да основават нови лицензионни покупко-продажби, споделя Матю Бътерик, юрист в адвокатска фирма, която съставлява Силвърман.

Юристът се надява, че сходни правосъдни каузи ще постелят пътя към постигането на лицензионно решение, при което актьори, писатели и други притежатели на авторски права ще могат да получават хонорари за потреблението на тяхното наличие в AI моделите, сходно на системата в музиката промишленост за работа с образци от песни.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР