Днес правителството на Великобритания публикува препоръки за индустрията на изкуствения

...
Днес правителството на Великобритания публикува препоръки за индустрията на изкуствения
Коментари Харесай

Великобритания призовава регулаторните органи да изготвят правила за изкуствения интелект

Днес държавното управление на Англия разгласява рекомендации за промишлеността на изкуствения разсъдък, в които се обрисува изчерпателен метод за контролиране на технологията в миг, когато тя е достигнала безумно високи равнища на известност.

В „ бяла “ книга, която ще бъде показана на Народното събрание, Министерството на науката, нововъведенията и технологиите (DSIT) ще очертае пет правилото, които желае да бъдат следвани от фирмите. Те са: сигурност, сигурност и надеждност; бистрота и обяснимост; справедливост; отчетност и управление; и състезателност и обезщетение.

Вместо да основава нови разпореждания, държавното управление приканва регулаторните органи да ползват съществуващите разпореждания и да осведомят сдруженията за техните отговорности според „ Бялата “ книга.

Правителството разпореди на Изпълнителната организация по опазване на здравето и сигурност, Комисията по тъждество и права на индивида и Органа за защита на конкуренцията и пазарите да предложат „ самостоятелни, характерни за подтекста подходи, които да дават отговор на метода, по който ИИ се употребява в техните браншове “.

„ През идващите дванадесет месеца регулаторните органи ще издадат на практика насоки за организациите, както и други принадлежности и запаси, като да вземем за пример шаблони за оценка на риска, с цел да дефинират по какъв начин да ползват тези правила в своите браншове. Когато парламентарното време разреши, може да бъде въведено законодателство, с цел да се подсигурява, че регулаторите преглеждат правилата поредно. “

заяви държавното управление

Мая Пиндеус, основен изпълнителен шеф и съосновател на ИИ стартъпа “Humanising Autonomy “, съобщи, че ходът на държавното управление бележи „ първа стъпка “ към регулирането на ИИ.

„ Необходимо е да има малко по-силно изразена позиция. Надявам се да видя това. Това е нещо като засаждане на семената за това. “

каза тя

Въпреки това тя добави:

„ Регулирането на технологията като технология е извънредно мъчно. Искаш тя да се развива, не искаш да възпрепятстваш какъвто и да е прогрес, когато тя ни влияе по избран метод. “

Появата на рекомендациите е навременна. ChatGPT, известният чатбот с изкуствен интелект, създаден от OpenAI, провокира вълна от търсене на технологията и хората употребяват инструмента за всичко – от писане на учебни есета до правене на правни мнения.

ChatGPT към този момент се трансформира в едно от най-бързо разрастващите се потребителски приложения на всички времена, като от февруари насам притегля 100 милиона дейни консуматори месечно. Експертите обаче показват опасения по отношение на отрицателните последствия от технологията, в това число опцията за плагиатство, измами и дезинформация.

Етиците в региона на изкуствения разсъдък се тормозят от предубежденията в данните, с които се образоват моделите на изкуствения разсъдък. Установено е, че логаритмите са склонни да се изкривяват в интерес на мъжете, изключително на белите, което слага дамите и малцинствата в неравностойно състояние.

Изразени са и опасения по отношение на опцията за загуба на работни места вследствие на автоматизацията. Във вторник Goldman Sachs
предизвести, че до 300 милиона работни места може да бъдат застрашени за сметка на генеративния изкуствен интелект.

Правителството желае от фирмите, които включват ИИ в своята активност, да подсигуряват, че обезпечават задоволително равнище на бистрота за това по какъв начин се създават и употребяват техните логаритми.

Организациите би трябвало да могат да оповестяват по кое време и по какъв начин се употребяват и да изясняват процеса на взимане на решения в системата с уместно равнище на подробност, което подхожда на рисковете, подбудени от потреблението на ИИ.

съобщи DSIT

Дружествата следва също по този начин да оферират на потребителите метод за оборване на решенията, взети от принадлежности, основани на ИИ, съобщи DSIT. Платформи като Фейсбук, TikTok и YouTube постоянно употребяват автоматизирани системи за унищожаване на наличие, за което е маркирано, че опонира на техните насоки.

Изкуственият разсъдък за който се счита, че способства за стопанската система на Обединеното кралство с 3,7 милиарда паунда (4,6 милиарда долара) всяка година, би трябвало също по този начин „ да се употребява по метод, който е в сходство със съществуващите закони на Обединеното кралство.

В понеделник държавният секретар Мишел Донелан посети офисите на ИИ стартъпа DeepMind в Лондон, заяви представител на държавното управление.

„ Изкуственият разсъдък към този момент не е предмет на научната фантастика, а темпото на развиване на ИИ е зашеметяващо, тъй че би трябвало да имаме правила, с цел да сме сигурни, че той се развива безвредно. Нашият нов метод се основава на мощни правила, тъй че хората да могат да се доверят на предприятията да разпрострат тази технология на бъдещето. “

каза Донелан в изказване през днешния ден

Лайла Ибрахим, основен действен шеф на DeepMind и член на Съвета по изкуствен интелект на Обединеното кралство, съобщи, че изкуственият разсъдък е „ трансформираща технология “, само че че „ може да доближи цялостния си капацитет единствено в случай че му се има доверие, което изисква обществено и частно партньорство в духа на виновното пионерство “.

„ Предложеният от Обединеното кралство контекстно-ориентиран метод ще помогне на регулирането да бъде в крайник с развиването на ИИ, да поддържа нововъведенията и да смекчава бъдещите опасности. “

добави Ибрахим

Този апел идва, откакто и други страни предложиха свои лични режими за контролиране на ИИ. В Китай държавното управление изиска от софтуерните компании да дават детайлности за своите логаритми, а Европейският съюз предложи свои лични разпореждания за промишлеността.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР