Използването и развитието на нови технологии във военната сфера може

...
Използването и развитието на нови технологии във военната сфера може
Коментари Харесай

Кисинджър: САЩ са длъжни да контролират новите технологии

Използването и развиването на нови технологии във военната сфера може да докара до пагубни последствия, написа FA. Хенри Кисинджър и Греъм Алисън съпоставят този развой с нуклеарната конкуренция от предишния век. И приканват да поемат контрола върху развиването на изкуствения разсъдък, преди да е станало прекомерно късно.

Тази година се навършват 78 години от края на най-смъртоносната война в човешката история и началото на най-дългия интервал в съвремието без въоръжен спор сред велики сили. Защото единствено две десетилетия по-късно Първата международна война е последвана от Втората международна война. Тя стана предвестител на Третата международна война. Това включваше толкоз разрушителни оръжия, че теоретично можеха да застрашат цялото човечество. И тази опасност надвисна през последвалите десетилетия на Студената война. Когато атомното заличаване на Хирошима и Нагасаки от Съединените щати принуди Япония да се съобщи неотложно и абсолютно, никой не предполагаше, че светът ще види в действителност мораториум върху потреблението на нуклеарни оръжия за идващите седем десетилетия. Още по-невероятно изглеждаше, че съвсем осем десетилетия по-късно в света ще останат единствено девет нуклеарни сили. Лидерството, демонстрирано от Съединените щати през тези десетилетия в предотвратяването на нуклеарна война, забавянето на разпространяването на нуклеарни оръжия и оформянето на интернационален ред, който подсигурява десетилетия мир сред великите сили, ще остане в историята като едно от най-значимите достижения на Америка.

Днес, когато светът е изправен пред неповторими провокации, подбудени от друга невиждана и в прочут смисъл даже по-ужасяваща технология – изкуственият разсъдък – не е изненадващо, че мнозина се обръщат към историята за насоки. Ще застрашат ли машините със гигантски качества статута на човечеството като стопанин на Вселената? Ще подкопае ли ИИ монопола на обособените страни върху оръжията за всеобщо заличаване? Ще разреши ли изкуственият разсъдък на обособени лица или дребни групи от хора да основават вируси, способни да убиват в мащаб, който преди беше непокътната територия единствено на великите сили? Може ли ИИ да унищожи нуклеарното възпиращо средство, което е в основата на днешния международен ред?

В момента никой не може да отговори сигурно на тези въпроси. Но до момента в който изследвахме тези въпроси през последните две години с група софтуерни водачи в челните редици на революцията на изкуствения разсъдък, заключихме, че вероятността неограниченото развиване на ИИ да сътвори пагубни последствия за Съединените щати и света е толкоз безапелационна че международните водачи би трябвало да работят неотложно. Въпреки че нито те, нито някой знае какво крие бъдещето, ние знаем задоволително през днешния ден, с цел да стартираме да вършим сложни избори и да подхващаме дейности, осъзнавайки, че те ще бъдат обект на неведнъж преразглеждане, до момента в който напредваме, откривайки от ден на ден и повече нови неща.

Докато водачите вършат тези избори, уроците, научени в нуклеарната епоха, могат да повлияят на техните решения. Дори нашите съперници, които се стремяха да разработят и внедрят невиждани технологии, които биха могли да убият стотици милиони хора, все пак откриха острови на общи ползи. Като две полярни страни, както Съединените щати, по този начин и Съветският съюз имаха интерес да предотвратят бързото разпространяване на такива технологии в други страни, които биха могли да ги застрашат. Както Вашингтон, по този начин и Москва признаха, че в случай че нуклеарната технология попадне в ръцете на неприятни играчи или терористи в границите на личните им граници, тя може да бъде употребена за опасност за Съединените щати и Съветския съюз, и по тази причина всеки създаде постоянни системи за сигурност за личните си арсенали. И защото и двете страни могат да бъдат изложени на риск, в случай че вражеските нападатели се снабдят с нуклеарни оръжия, те считат, че е в техен най-хубав интерес да обсъдят този риск между тях и да разработят способи и технологии, с цел да подсигуряват, че това няма да се случи. След като техните арсенали с нуклеарни оръжия доближиха равнище, при което нито един от тях не можеше да нападна другия, без да аргументи ответен удар, който да се самоунищожи, те откриха парадоксалната непоклатимост на „ взаимно обезпеченото заличаване “. Тъй като тази ужасна действителност беше интернационализирана, всяка мощ се научи да се лимитира и откри способи да убеди своя съперник да ограничи военните си начинания, с цел да избегне борба, която може да докара до война. Наистина, водачите на Съединените щати и руското държавно управление схващат, че предотвратяването на нуклеарна война, на която тяхната страна ще бъде първата жертва, е тяхната най-важна отговорност.

Предизвикателствата пред ИИ през днешния ден не са единствено втората глава от нуклеарната епоха. Историята не е готварска книга с предписания за подготвяне на суфлета. Разликите сред ИИ и нуклеарните оръжия са толкоз обилни, колкото и приликите. Въпреки това, вярно разбрани и приспособени, уроците, научени от образуването на интернационален ред, който е видял съвсем осем десетилетия без война сред велики сили, съставляват най-хубавото управление, налично за водачите на страни с противоположни изкуствени интелекти.

В момента има единствено две суперсили в региона на изкуствения разсъдък: Съединени американски щати и Китай. Това са единствените страни със експерти, проучвателен институти и голяма изчислителна мощ, нужни за основаването на най-сложните модели на изкуствен интелект. Това им дава стеснен прозорец от благоприятни условия да разработят рекомендации за попречване на най-опасните достижения и използва на ИИ. Президентът на Съединени американски щати Джо Байдън и китайският президент Си Дзинпин би трябвало да се възползват от тази опция, с цел да проведат среща на върха – може би незабавно след срещата на Азиатско-тихоокеанското икономическо съдействие в Сан Франциско през ноември – където биха могли да вземат участие в разширени, директни полемики лице в лице защо е това, което те би трябвало да смятат за един от най-важните въпроси, пред които са изправени през днешния ден.

Уроци от нуклеарната епоха

След като атомните бомби опустошиха японски градове през 1945 година, учените, които отвориха атомната кутия на Пандора, видяха какво са основали и се отдръпнаха ужасени. Робърт Опенхаймер, основен академик на плана Манхатън, си спомни ред от Бхагавад Гита: „ Сега съм станал Смърт, унищожител на светове. “ Опенхаймер стана толкоз разгорещен последовател на радикалните ограничения за надзор на нуклеарните оръжия, че беше лишен от достъп до нуклеарния план. Манифестът Ръсел-Айнщайн, подписан през 1955 година от 11 водещи учени, в това число освен Бъртран Ръсел и Алберт Айнщайн, само че и Линус Полинг и Макс Борн, предизвестява за ужасяващата мощ на нуклеарните оръжия и умолява международните водачи в никакъв случай да не ги употребяват.

Въпреки че американският президент Хари Труман в никакъв случай не е изразявал подозрение по отношение на решението си за атомни оръжия, нито той, нито членовете на неговия екип по национална сигурност са имали действителна визия по какъв начин тази ужасяваща технология може да бъде интегрирана в следвоенния интернационален ред. Трябваше ли Съединените щати да се опитат да запазят монополната си позиция като единствена нуклеарна мощ? Беше ли това даже допустимо? Може ли Съединените щати да споделят своята технология със Съветския съюз, за ​​да реализиран тази цел? За да оцелеят в свят с тези оръжия, трябваше ли международните водачи да измислят някаква нова власт над националните държавни управления? Хенри Стимсън, военният министър на Труман (който преди малко бе оказал помощ да победят Германия и Япония), предложи Съединените щати да споделят своя монопол върху атомната бомба със руския водач Йосиф Сталин и английския министър-председател Уинстън Чърчил, с цел да основат „ кондоминиум “ от велики сили, който ще предотврати разпространяването на нуклеарни оръжия. Труман сътвори комитет, управляван от заместител държавния секретар Дийн Ачесън, с цел да създаде тактика за използване на предлагането на Стимсън.

По създание Ачесън се съгласи със Стимсън: единственият метод да се предотврати конкуренция в нуклеарните оръжия, която може да приключи с пагубна международна война, е да се сътвори някаква интернационална конструкция, която да бъде единственият притежател на атомните оръжия. Това ще изисква Съединените щати да споделят своите нуклеарни секрети със Съветския съюз и други членове на Съвета за сигурност на Организация на обединените нации, да трансферират своите нуклеарни оръжия на нов „ орган на Организация на обединените нации за атомно развиване “ и да забранят на всички страни да създават атомни оръжия или да основават свои лични качества за произвеждане на оръжеен нуклеарен материал. През 1946 година Труман изпраща финансиста и президентски консултант Бърнард Барух в Организация на обединените нации, с цел да договаря за съглашение за осъществяване на проекта Ачесън. Но това предложение беше изрично отхвърлено от представителя на Съюз на съветските социалистически републики в Организация на обединените нации Андрей Громико.

Три години по-късно, когато Съветският съюз съумя в бързото си изпитание да сътвори своя лична бомба, Съединените щати и Съветският съюз навлязоха в това, което хората започнаха да назовават ​​Студената война: яростна конкуренция, само че без бомби и патрони. Основната характерност на това съревнование беше желанието за нуклеарно предимство. В своя пик нуклеарните арсенали на двете суперсили включват повече от 60 000 оръжия, някои от които имат бойни глави с по-голяма избухлива мощ от всички оръжия, употребявани във всички войни в известната история. Експертите спориха дали цялостната нуклеарна война би означавала края на всяка жива душа на земята.

През десетилетията Вашингтон и Москва са похарчили трилиони долари за своите нуклеарни арсенали. Настоящият годишен бюджет на Съединени американски щати за атомни оръжия надвишава 50 милиарда $. В първите десетилетия на нуклеарната конкуренция и Съединените щати, и Съветският съюз направиха невъобразими до тогава скокове напред с вярата да получат решаващо преимущество. Увеличаването на избухливата мощ на атомните оръжия изисква основаването на нови единици на тяхната мощ: от килотона (еквивалента на силата, освободена от 1000 тона TNT) за първичните заряди, до мегатона (еквивалента на силата, освободена от един милион тона ) за водородни термоядрени бомби. И двете страни изобретиха междуконтинентални ракети, които можеха да доставят бойни глави до цели от другата страна на планетата за 30 минути, спътници, които обикаляха земното кълбо на височина от стотици километри с камери, които можеха да дефинират координатите на задачите с акуратност до няколко сантиметра, и отбрани, които биха могли същността на въпроса е да удариш патрон с патрон. Някои специалисти съществено са мислили за отбранителни системи, които биха създали нуклеарните оръжия, както сподели президентът Роналд Рейгън, „ безсилни и остарели “.

Концептуален боеприпас

В опит да систематизират тези старания, стратезите създадоха концептуален боеприпас за делене на първия и втория удар. Те формулираха главните условия за надеждна реакция. И те създадоха нуклеарната триада – подводници, бомбардировачи и наземни ракети – с цел да подсигуряват, че в случай че съперник открие уязвимост в един от нашите съставни елементи, други съставни елементи от арсенала ще останат разполагаем за унищожителен отговор. Осъзнаването на рисковете от инцидентно или неразрешено изстрелване на оръжия подтиква изобретяването на ефикасни системи за разрешаване – електронни ключалки, вградени в нуклеарни оръжия, които предотвратяват активирането им без верните кодове за изстрелване. Бяха създадени даже резервирани системи за отбрана против софтуерни пробиви, които биха могли да компрометират системите за командване и надзор, което беше основата за изобретяването на компютърната мрежа, трансформирала се в Интернет. Както сподели стратегът Херман Кан, „ Тогава си мислехме немислимото “.

Контрол върху ИИ

Има доста ехтене от това минало в актуалните оферти за способи за ограничение на ИИ. Искането на милиардера Илон Мъск за шестмесечна пауза в създаването на AI, предлагането на откривателя на изкуствения разсъдък Елиезер Юдковски да го забрани и настояването на психолога Гари Маркъс той да бъде следен от някакъв тип международен ръководещ орган, всъщност повтарят несполучливи оферти от нуклеарната епоха. Причината е, че всяка от тях ще изисква от водещите страни да подчинят своя суверенитет на наднационални структури. Никога в историята огромна мощ, страхувайки се, че съперник може да одобри нова технология, която би заплашила оцеляването и сигурността му, се е въздържала от създаването на тази технология за себе си. Дори близки съдружници на Съединени американски щати като Англия и Франция избраха да развият личен народен нуклеарен потенциал в допълнение към разчитането на нуклеарния чадър на Съединени американски щати.

За да се приспособяват уроците от нуклеарната история, с цел да се отговори на актуалното предизвикателство с изкуствения разсъдък, е значимо да се признаят забележителните разлики сред ИИ и нуклеарните оръжия. Първо, до момента в който развиването на нуклеарната технология беше ръководено от обособени национални държавни управления, основаването на AI се управлява най-вече от частни компании. Учените, работещи в Microsoft, Гугъл, Amazon, Meta, OpenAI и няколко по-малки започващи компании, са надалеч пред всички сходни старания на държавното управление на Съединени американски щати. Нещо повече, тези компании в този момент са въвлечени в гладиаторска борба между тях, което безспорно подтиква нововъведенията, само че което идва на висока цена. Тъй като тези частни играчи търсят най-вече взаимни отстъпки сред облаги и опасности, те постоянно подценяват националните ползи на съответни страни.

Второ, ИИ през днешния ден е дигитален. Ядрените оръжия бяха сложни за произвеждане и изискваха комплицирана инфраструктура за осъществяване на всичко – от обогатяване на уран до създаване на нуклеарни оръжия. Ядрените артикули са физически обекти и затова подлежат на броене. Но когато беше належащо да се ревизират дейностите на врага, незабавно породиха ограничавания. AI съставлява изцяло друго предизвикателство. Основната му еволюция се случва в съзнанието на хората. Той се създава в лаборатории и е мъчно да се следи неговото разрастване. Ядрените оръжия са осезаеми. Същността на изкуствения разсъдък е неговата концептуалност и спекулативност.

Трето, ИИ се развива и популяризира със скорост, която прави невъзможни дълготрайните договаряния. Контролът върху оръжията се развива в продължение на десетилетия. Ограниченията на AI би трябвало да бъдат избрани, преди AI да бъде вграден в структурата за сигурност на всяка нация, т.е. преди машините да стартират да слагат свои лични цели, което съгласно някои специалисти евентуално ще се случи през идващите пет години. Това изисква полемика и разбор първо на национално, а по-късно и на интернационално равнище. AI също по този начин изисква нова архитектура за взаимоотношенията сред държавните управления и частния бранш.

За благополучие, огромните компании, които създадоха главен изкуствен интелект и трансфораха Съединените щати във водеща суперсила на ИИ, признават, че носят отговорност освен към своите акционери, само че и към Америка и човечеството като цяло. Много от тях към този момент са създали свои лични насоки за оценка на риска преди внедряване, понижаване на пристрастията в образованието на AI и ограничение на рисковата приложимост на техните модели. Други изследват способи за ограничение на образованието за изкуствен интелект и налагане на условия за познаване на клиента на производителите на облачни изчислителни системи. В забележителна стъпка в вярната посока самодейност, оповестена от администрацията на Байдън през юли тази година, докара ръководителите на седем огромни компании за изкуствен интелект в Белия дом, с цел да се ангажират взаимно да разработят насоки за гарантиране на „ сигурност, сигурност и доверие “.

Както един от създателите на публикацията – Хенри Кисинджър, означи в книгата си  „ Ерата на изкуствения разсъдък “, извънредно значимо е да се организират систематични проучвания на дълготрайните последствия от нововъзникващите изобретения и приложения на изкуствения разсъдък. Тъй като обществото в Съединените щати в този момент е по-разединено, в сравнение с даже по време на Гражданската война, мащабът на рисковете, подбудени от неограниченото развиване на ИИ, изисква водачите както в държавното управление, по този начин и в бизнеса да работят неотложно. Всяка компания с опция за основаване на нови AI модели и всяка компания или изследователска организация, разработваща такива нови модели, би трябвало да сътвори екипи, които да проучват човешките и геополитическите последствия от техните бизнес интервенции с AI.

Този проблем е надпартиен и изисква обединен отговор от нашето общество. В този дух президентът и Конгресът би трябвало да основат национална комисия, формирана от изтъкнати, политически самостоятелни някогашни водачи от частния бранш, Конгреса, военните и разследващата общественост. Комисията би трябвало да предложи съответни наложителни гаранции. Те би трябвало да включват условия, че новите модели на AI като GPT-4 могат да бъдат обучавани непрестанно и че фирмите вършат стрес тест за рискови опасности, преди да пуснат нов модел. Въпреки че задачата за създаване на такива правила е комплицирана, комисията ще разполага с образец под формата на Комисията за национална сигурност по изкуствен интелект. Неговите рекомендации, оповестени през 2021 година, дадоха подтик и тенденция на начинания, които американските военни и разследващи организации подхващат като част от тяхната конкуренция с Китай в региона на изкуствения разсъдък.

Две суперсили в ИИ

Дори на този ранен стадий, до момента в който Съединените щати към момента построяват своя лична система за ръководство на ИИ в страната, сериозните диалози към този момент би трябвало да стартират с единствената друга суперсила на ИИ в света. Въпреки че политическата система на Китай сътвори провокации за развиването на ИИ, националните водачи на Китай в софтуерния бранш — Baidu (водещата търсачка в страната), ByteDance (създател на TikTok), Tencent (създател на WeChat) и Alibaba (лидер в електронната търговия )—изграждат свои лични системи на китайски – аналози на ChatGPT. И до момента в който Китай към момента изостава в напредналите полупроводникови технологии, той има всичко належащо, с цел да напредне в близко бъдеще.

За тази цел Байдън и Си би трябвало да се срещнат допустимо най-скоро за открит диалог по отношение на управлението на военното потребление на ИИ. Срещата на Азиатско-тихоокеанското икономическо съдействие през ноември в Сан Франциско им дава тази опция. Американските и китайските водачи би трябвало да обсъдят по какъв начин те персонално гледат на рисковете, подбудени от ИИ, какво прави неговата страна, с цел да предотврати използва, които основават пагубни опасности, и по какъв начин страната му ще подсигурява, че локалните компании няма да изнасят обвързваните опасности. За да осведомят идващия кръг от полемики, те би трябвало да основат консултативна група, състояща се от американски и китайски учени в региона на изкуствения разсъдък и други, които обмислят последствията от тези разработки. Този метод може да бъде моделиран на съществуваща дипломация от повторно в други области, където групите са формирани от хора, определени въз основа на тяхната безпристрастна преценка, макар че не са публично утвърдени от техните държавни управления. Въз основа на нашите диалози с водещи учени в двете страни, ние сме уверени, че тази полемика може да бъде доста продуктивна.

Дискусиите и дейностите на Съединени американски щати и Китай по този дневен ред ще бъдат единствено част от зараждащия се световен разговор по отношение на ИИ, в това число срещата на високо ниво за сигурността на ИИ, която Обединеното кралство ще бъде хазаин през ноември, и настоящия разговор по въпроса в Организация на обединените нации. Тъй като всяка страна се стреми да употребява изкуствения разсъдък, с цел да усъвършенства живота на своите жители, като в същото време подсигурява тяхната сигурност, в дълготраен проект ще е нужна световна рамка за неговото развиване. Работата по това би трябвало да стартира с национални старания за попречване на най-опасните и евентуално пагубни последствия от изкуствения разсъдък. Тези начинания би трябвало да бъдат допълнени от разговор сред учени в разнообразни страни, разработващи широкомащабни модели на ИИ, и членове на национални комисии като тази, препоръчана тук. Официалните държавни договаряния, в началото сред страни с напреднали стратегии за изкуствен интелект, би трябвало да имат за цел основаването на интернационална конструкция, както и интернационална организация, сравнима с Международната организация за атомна сила.

Ако Байдън, Си Дзинпин и други международни водачи работят в този момент, с цел да се изправят против провокациите, сложени от ИИ, толкоз уверено, колкото техните прародители направиха против нуклеарните закани през предходните десетилетия, ще бъдат ли толкоз сполучливи? Разглеждайки по-широката картина на историята и възходящата поляризация на международната общественост през днешния ден, е мъчно да бъдем оптимисти. Въпреки това, поразителният факт, че отпразнувахме 78 години мир сред нуклеарните сили, би трябвало да въодушеви всички да посрещнат революционните и неизбежни провокации на нашето бъдеще с изкуствен интелект.

Автори: Хенри Кисинджър е ръководител на борда на шефовете на Kissinger Associates. Той е бил консултант по националната сигурност на президента на Съединените щати от 1969 до 1975 година и държавен секретар от 1973 до 1977 година

Греъм Алисън е професор по ръководство в Харвардския университет. Бивш помощник-министър на защитата на Съединени американски щати по политиката и планирането.

Източник: safenews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР