Изкуственият интелект е толкова голяма заплаха за човечеството, колкото ядрената

...
Изкуственият интелект е толкова голяма заплаха за човечеството, колкото ядрената
Коментари Харесай

Екзистенциален риск: Защо моделът за ядрени оръжия няма да работи при AI

Изкуственият разсъдък е толкоз огромна опасност за човечеството, колкото нуклеарната война, оповестиха преди месец водещи софтуерни водачи и учени.

Аналогията сред двете области набира все по-голяма мощ и авторитетни персони, измежду които основният изпълнителен шеф на OpenAI Сам Алтман и генералният секретар на Организация на обединените нации Антонио Гутериш, предложиха основаването на интернационална организация, сходна на Международната организация за атомна сила (МААЕ). 

Но това са доста разнообразни технологии и нуклеарният модел на ръководство не би работил добре за AI, се споделя в разбор по тематиката на Кралския институт за интернационалните връзки в Лондон Chatham House.

Какво съставлява МААЕ

МААЕ е основана през 1957 година, с цел да предизвиква мирното потребление на нуклеарните технологии с помощта на президента на Съединени американски щати Айзенхауер, който предлага организацията в речта си " Атоми за мир ".

Уставът на организацията я задължава да предизвиква нуклеарната сила за мир, здраве и разцвет и да подсигурява, доколкото е допустимо, че тя не се употребява за военни цели.

МААЕ прави инспекции за гарантиране на сигурността в цивилен нуклеарни уреди като атомни електроцентрали и проучвателен реактори, с цел да подсигурява, че нуклеарните материали в неядрени страни не се трансферират за военни стратегии. 

Агенцията е извънредно сполучлива в своята охранителна активност, като се изключи Ирак в края на 80-те години.

Тя разкри няколко случая на неспазване на условията и способства доста за смяна на държанието и попречване на разпространяването на нуклеарни оръжия, в това число в Иран.

Екзистенциален боязън от нуклеарна война

Още през цялото време на създаването си нуклеарните оръжия съставляват прочут и количествено измерим екзистенциален риск. 

Ядрената бомбардировка на Хирошима и Нагасаки през август 1945 година свидетелства за разрушителния, разхвърлян и неуправляем темперамент на тези оръжия.

Един от главните претекстове за основаването на МААЕ и на контракти за надзор на въоръженията като Договора за неразпространение на нуклеарното оръжие беше големият боязън от нуклеарна война.

Тези опасения са основателни.

В разгара на Студената война се твърдеше, че Съединени американски щати и тогавашният Съветски съюз разполагат с задоволително нуклеарно оръжие, с цел да " унищожат човечеството такова, каквото го познаваме ". Последните калкулации демонстрират, че броят на нуклеарните оръжия, нужни за унищожаването на изискванията за човешко обитаване, е по-малък от 100. 

Следователно рисковете, подбудени от самото битие на нуклеарните оръжия и опасността от тяхното потребление, са екзистенциални; а дълбоките филантропични опасности и последствия, които биха зародили вследствие на потреблението им, бяха движещата мощ, довела до приемането през 2017 година на Договора за възбрана на нуклеарните оръжия.

Страхът от злополука отклонява напъните за отбягване на рисковете

Към момента няма твърди научни доказателства за екзистенциален и пагубен риск от AI.

Много от опасенията остават хипотетични и отклоняват публичното внимание от към този момент належащите етични и правни опасности, произлизащи от новата технология и последващите от тях вреди. 

Това не значи, че рисковете, свързани с AI не съществуват. Все повече доказателства документират вредите, които тези технологии могат да нанесат, изключително на най-застрашените групи, като да вземем за пример етническите малцинства, популацията в разрастващите се страни и други уязвими групи. 

Свръхзависимостта от AI, изключително за сериозната национална инфраструктура може да бъде източник на забележителна накърнимост, само че това няма да е пагубно. 

Притесненията по отношение на по-широки, екзистенциални опасности, свързани с AI, би трябвало да се преглеждат деликатно, малко по малко, до момента в който се събират и проучват доказателства. Твърде бързото пристъпване към надзор може и да навреди, считат от Chatham House.

Овладяването на AIе съвсем невероятно

Техническите аспекти на нуклеарните оръжия са разнообразни от тези на AI. Разработването на нуклеарни оръжия се сблъсква с физически спънки. Производството им изисква характерни материали в характерни форми - като плутоний и високообогатен (над 90 %) уран и тритий. 

Тези материали създават неповторими, измерими сигнатури. Най-малките следи могат да бъдат открити при рутинни инспекции и да бъдат разкрити секрети действия.

Ядрените оръжия не могат да бъдат създадени без тези специфични материали. Контролирането на достъпа до материалите физически не разрешава на страните, на които не е позволено да ги придобият, да го вършат. Това е доста по-различно от изкуствения разсъдък, който всъщност е основан на програмен продукт и е с общо предопределение.

Въпреки че създаването и образованието на AI може да изисква огромни вложения и суперкомпютри с голяма изчислителна мощност, неговите приложения са необятно публикувани и от ден на ден предопределени за всеобща приложимост във всички сегменти на обществото.

В този смисъл AI е тъкмо противоположното на нуклеарните оръжия.

Неосезаемото му естество ще направи мъчно, в случай че не и невероятно, неговото ограничение - изключително с увеличението на AI с отворен код. Следователно ограниченията за отбрана и методите за инспекция, сходни на тези, употребявани от МААЕ, не биха били подобаващи заради тези присъщи механически разлики.

Какво би могло да работи

Необходими са политически ограничения за справяне с рисковете при създаването и внедряването на AI. Но моделите на ръководство, които са надалеч от нуклеарната област, оферират по-добро ентусиазъм. 

Решение, сходно на това на Американската организация по храните и медикаментите (FDA), може да обезпечи рационален метод за контрол на стартирането на пазара и комерсиализацията на артикули на AI. 

То би се състояло от огромен модел за стартиране на пазара, наред със строги условия за одит и всеобхватни оценки на риска, които да правят оценка както директните, по този начин и косвените последствия от въпросния артикул. 

Референтната лаборатория на Европейски Съюз за генетично модифицирани храни и фуражи (EURL GMFF) също дава потребен метод да се мисли за някои типове надзор и контролиране на AI. 

AI би могъл да бъде контролиран от интернационална организация, само че тя би трябвало да работи на правилата на Международната група по изменение на климата и да направи още една крачка напред към рекомендацията на генералния секретар на Организация на обединените нации за съвещателен орган на високо ниво, допълват от Chatham House.

Подобна организация би помогнала на интернационалната общественост да получи разнородни и цялостни данни в региона, като подсигурява, че последващите разисквания са цялостни, учредени на доказателства и приобщаващи. 

Тази интернационална организация би могла да бъде новосъздадена или да разшири активността на съществуващите профилирани организации, като да вземем за пример Международния съюз по далекосъобщения, който съчетава както стандарти, по този начин и разпореждания, преразглеждани постоянно посредством Световната конференция по радиосъобщения. Тази конструкция би могла да работи добре за изкуствения разсъдък предвид на неговия динамичен темперамент и бърз софтуерен прогрес.

Дейностите на организацията ще предизвикват присъединяване на всички заинтригувани страни; ще подкрепят договарянията и продължаващите старания за ограничение на рисковете и ще организират по-задълбочени и дълготрайни проучвания.

Моделите за ръководство на AI могат да бъдат обсъждани и посредством конгреси, в това число Форумите за ръководство на интернет (IGF), срещи в Организация на обединените нации, в това число Глобалния дигитален контракт и Срещата на върха за бъдещето, както и посредством работата на пратеника на генералния секретар по технологиите.

През 2025 година Световната среща на върха за осведомителното общество (WSIS) ще даде значим миг за договаряне на методите за по-нататъшно ръководство на AI.

Тези организации и конгреси съставляват по-добри модели за контролиране на изкуствения разсъдък и биха могли да ръководят по-ефективно цялостния му капацитет в интерес на всички, се споделя в заключението на разбора.

 
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР