Съветът за сигурност на ООН ще проведе първото по рода

...
Съветът за сигурност на ООН ще проведе първото по рода
Коментари Харесай

Мир, сигурност, икономика: ООН свиква ключова среща за рисковете от AI

Съветът за сигурност на Организация на обединените нации ще организира първото по рода си публично разискване за рисковете от изкуствения разсъдък (AI), оповестява Reuters.

Очаква се Англия да призове за интернационален разговор по отношение на въздействието на бързоразвиващата се технология върху международния мир и сигурност.

Тя е ротационен ръководител на Съвета за сигурност на Организация на обединените нации този месец и ще се стреми да играе водеща роля в регулирането на изкуствения разсъдък в международен мащаб.

По време на визитата си във Вашингтон при започване на юни министър-председателят Риши Сунак получи поддръжката на президента на Съединени американски щати Джо Байдън Англия да бъде хазаин на срещата на върха за AI, на която ще бъдат прегледани рисковете от технологията и ще се разиска по какъв начин те могат да бъдат понижени посредством интернационално координирани дейности.

Британският външен министър Джеймс Клевърли ще ръководи полемиката във вторник, 18 юли.

По-рано министър-председателят Риши Сунак съобщи, че Англия може да се трансформира в международен дом на регулациите в региона на изкуствения разсъдък, като показа Лондон като софтуерен център пред водачите в промишлеността и ги прикани да схванат опциите и провокациите на изкуствения разсъдък.

" Възможностите са изключителни. Но ние би трябвало - и ще го създадем – безвредно ", съобщи Сунак на конференцията London Tech Week преди месец.

Той добави, че софтуерният бранш е в основата на неговия приоритет за напредък на стопанската система и въпреки да признава опасенията на чиновниците за работните им места, счита, че предходните технологии също са представлявали сходни провокации.

Правителствата по света от месеци обмислят по какъв начин да понижат заплахите от изкуствения разсъдък, които могат да преобразят международната стопанска система и да трансформират пейзажа на интернационалната сигурност.

Миналия месец генералният секретар на Организация на обединените нации Антонио Гутериш поддържа предлагането на някои ръководители на компании в региона на изкуствения разсъдък, за основаване на интернационален орган за наблюдаване, сходен на Международната организация за атомна сила (МААЕ).

" Тревожните сигнали за най-новата форма на изкуствения разсъдък - генеративния изкуствен интелект, остават без отзив. И те са най-силни от страна на разработчиците, които са го основали. Трябва да приемем тези предизвестия съществено. ", съобщи Гутериш.

Той разгласи още, че възнамерява до края на годината да стартира работа по съвещателен орган на високо ниво по въпросите на AI, който постоянно да прави обзор на механизмите за ръководство и да предлага рекомендации за това по какъв начин те могат да бъдат приведени в сходство с правата на индивида, правилата на правовата страна и общото богатство.

" Бих подкрепил концепцията да създадем организация за изкуствен интелект, въодушевена от това, което през днешния ден съставлява Международната организация за атомна сила. ", сподели генералният секретар на Организация на обединените нации.

Гутериш съобщи, че сходен модел би могъл да бъде " доста забавен ", само че означи, че " единствено страните членки могат да го основат, а не Секретариатът на Организация на обединените нации ".

Базираната във Виена МААЕ е основана през 1957 година и предизвиква безвредното, несъмнено и спокойно потребление на нуклеарните технологии, като в същото време следи за възможни нарушавания на Договора за неразпространение на нуклеарното оръжие (ДНЯО). В нея членуват 176 страни, напомня Reuters.

Гутериш добави още, че възнамерява да назначи теоретичен съвещателен съвет от специалисти по AI и основни учени от организациите на Организация на обединените нации.

Аналогията сред нуклеарната сила и изкуствения разсъдък набира все по-голяма известност и утвърждение измежду международните водачи, само че съгласно анализатори, това са доста разнообразни технологии и нуклеарният модел на ръководство не би работил добре за AI. Това споделя в разбор на Кралския институт за интернационалните връзки в Лондон Chatham House, оповестен неотдавна.

Според отчета, все още няма твърди научни доказателства за екзистенциален риск от AI. Много от опасенията остават хипотетични и отклоняват публичното внимание от към този момент належащите етични и правни опасности, произлизащи от новата технология и последващите от тях вреди.

Свръхзависимостта от AI, изключително за сериозната национална инфраструктура може да бъде източник на забележителна накърнимост, само че това няма да е пагубно.

Притесненията по отношение на по-широки, екзистенциални опасности, свързани с AI, би трябвало да се преглеждат деликатно, малко по малко, до момента в който се събират и проучват доказателства. Твърде бързото пристъпване към надзор може и да навреди, считат от Chatham House.

AI би могъл да бъде контролиран от интернационална организация, само че тя би трябвало да работи на правилата на Международната група по изменение на климата и да направи още една крачка напред към рекомендацията на генералния секретар на Организация на обединените нации за съвещателен орган на високо ниво, допълват от Chatham House.

Моделите за ръководство на AI могат да бъдат обсъждани и посредством конгреси, в това число Форумите за ръководство на интернет (IGF), срещи в Организация на обединените нации, в това число Глобалния дигитален контракт и Срещата на върха за бъдещето, както и посредством работата на пратеника на генералния секретар по технологиите.

Тези организации и конгреси съставляват по-добри модели за контролиране на изкуствения разсъдък и биха могли да ръководят по-ефективно цялостния му капацитет в интерес на всички, се споделя още в разбора.

 
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР