Америка въвежда иновации, а Европа регулира. Точно в момента, в

...
Америка въвежда иновации, а Европа регулира. Точно в момента, в
Коментари Харесай

OpenAI поиска правила за AI и Европа е готова да ги приеме

Америка вкарва нововъведения, а Европа контролира. Точно сега, в който светът стартира да осъзнава достижението на OpenAI, чийто началник Сам Алтман по едно и също време изпревари конкуренцията и пледира за световни правила, Европейският съюз отговори със Закона за изкуствения разсъдък. Това е опитът на Европа да придобие статут на суперсила в региона на изкуствения разсъдък, като пръв дефинира минимални стандарти. Законът ще бъде гласуван в Европейския парламент в сряда.

И въпреки всичко сме надалеч от лъжливо елементарния свят на историите за роботи на Айзък Азимов, в които рационалните машини предоставяха преимуществата на мощните " позитронни мозъци " единствено с три правила - не наранявай хората, подчинявай се на хората и защитавай съществуването си. Изкуственият разсъдък (ИИ) явно е прекомерно значим, с цел да не се контролира задълбочено, само че Европейски Съюз ще има тежката задача да опрости законодателството, като в същото време предизвиква нововъведенията.

Законът за ИИ съдържа някои положителни хрумвания, ориентирани към прозрачността и доверието: Чатботовете ще би трябвало да заявяват дали са подготвени върху материали, предпазени с авторски права, дълбинните имитации ще би трябвало да бъдат обозначени като такива, а редица добавени неотдавна отговорности за типовете модели, употребявани в генеративния ИИ, ще изискват съществени старания за каталогизиране на наборите от данни и вдишване на отговорност за метода, по който се употребяват.

Да бъде вдигната завесата за работата на мистичните машини, които обработват големи масиви от човешки резултати, е верен метод и ни доближава към повече достолепие при третирането на данните. Както Драгош Тудораче, съдокладчик на закона, ми сподели неотдавна, задачата е да се насърчи " доверието и увереността " в една технология, която притегли големи вложения и неспокойствие, само че също по този начин докара до някои доста мрачни провали. Саморегулирането не е вид, както и " бягството в гората " и бездействието от боязън, че ИИ може да унищожи човечеството един ден, споделя той.

Законът обаче е и доста комплициран и крие абсурден риск да сложи летвата прекомерно високо, с цел да насърчи нововъведенията, само че не задоволително високо, с цел да се избегнат непредвидими резултати. Основният метод е да се категоризират приложенията на ИИ в категории за риск - от минимални (спам филтри, видеоигри) до високи (набиране на личен състав на работното място) и неразрешени (разпознаване на лица в действително време).

Това има смисъл от позиция на сигурността на продуктите, като от доставчиците на системи с ИИ се чака да дават отговор на правила и условия, преди да пуснат продуктите си на пазара. Въпреки това категорията на високорисковите приложения е необятна, а отговорността надолу по веригата в приложение като ChatGPT демонстрира по какъв начин технологиите могат да размият рамките на продуктовата сигурност. Когато юристът разчита на изкуствен интелект, с цел да изготви молба, която несъзнателно се цялостни с измислена правосъдна процедура, той употребява продукта по предопределение или злоупотребява с него?

Не е ясно също по този начин по какъв начин тъкмо това ще се отрази на други закони за отбрана на персоналните данни, като да вземем за пример GDPR на Европейски Съюз, който беше употребен от Италия като съображение за краткотрайното блокиране на ChatGPT. И въпреки че по-голямата бистрота на предпазените с авторски права данни за образованието е рационална, тя може да влезе в несъгласие с предходни изключения от разпоредбите за събиране на данни, които са били издадени когато креативните промишлености не гледаха с такава паника към изкуствения разсъдък.

Всичко това значи, че съществува действителна опция действителният резултат от Закона за изкуствения разсъдък да затвърди зависимостта на Европейски Съюз от огромните американски софтуерни компании - от Microsoft Corp. до Nvidia Corp. Европейските компании се надпреварват да се възползват от евентуалните изгоди за продуктивността от ИИ, само че евентуално огромните снабдители на пазара ще бъдат най-добре готови да се оправят с комбинацията от предстоящите първични разноски за привеждане в сходство в размер на най-малко 3 милиарда $ и санкции за неспазване на условията в размер на до 7% от световните доходи.

Според Fast Company Adobe Inc. към този момент е предложила да компенсира по легален метод предприятията, в случай че бъдат съдени за нарушение на авторските права върху изображения, които инструментът Firefly основава. Някои компании могат да поемат обмислен риск и да избегнат напълно Европейски Съюз: Alphabet Inc. към момента не е направила своя чатбот Bard наличен там.

ЕС би трябвало да направи доста фини настройки, до момента в който стартират окончателните договаряния по Закона за изкуствения разсъдък, който може да влезе в действие едвам през 2026 година Държави като Франция, които са обезпокоени, че могат да изгубят повече позиции в региона на нововъведенията в интерес на Съединени американски щати, евентуално ще упорстват за повече изключения за по-малките компании. Анализаторът на Bloomberg Intelligence Тамлин Бейсън вижда допустимо " приблизително състояние " във връзка с рестриктивните мерки. Това би трябвало да бъде съпроводено от начинания за поощряване на новите софтуерни хрумвания, като да вземем за пример на екосистеми, свързващи университети, започващи компании и вложители. Трябва да има и повече световна съгласуваност в миг, когато паниката към ИИ е необятно публикувана - новият развой на Г-7 за ИИ в Хирошима наподобява като потребен конгрес за разискване на въпроси като правата на интелектуална благосъстоятелност.

Може би една добра вест е, че ИИ не е на път да унищожи всички работни места, заемани от чиновници по сходството и юристи. Технологичният съветник Бари Сканел споделя, че фирмите ще се стремят да наемат чиновници по ИИ и да изготвят оценки на въздействието на ИИ, сходно на това, което се случи след GDPR. Обуздаването на роботите изисква повече човешки мозъчен потенциал - може би един поврат, който би бил неосъществим съгласно разпоредбите на Азимов.
Източник: moreto.net

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР