В продължение на почти 14 години израелските оперативни агенти бяха

...
В продължение на почти 14 години израелските оперативни агенти бяха
Коментари Харесай

Изкуственият интелект и войната: Могат ли напредналите военни технологии да бъдат опитомени, преди да е твърде късно?

В продължение на съвсем 14 години израелските оперативни сътрудници бяха ориентирани към най-хубавия ирански нуклеарен академик Мохсен Фахризаде, който ръководеше загадка стратегия за основаване на нуклеарна бойна глава. На 27 ноември 2020 година, в ход, който смая света, чиновници на израелското разузнаване убиха учения. Фахризаде и брачната половинка му бяха напуснали брега на Каспийско море и пътуваха в колона от четири коли към фамилния си дом в иранската провинция. Когато наближиха противоположен завой, бараж от патрони разруши предното им стъкло и порази неведнъж Фахризаде, написа за " Бюлетин на нуклеарните учени "  Стивън Фелдщайн, старши теоретичен помощник във " Фондацията Карнеги за интернационален мир ".

Израелският сътрудник, направил убийството, не е трябвало да бяга от местопроизшествието: стрелецът е употребявал картечница с дистанционно управление, задействана от повече от 1600 километра. Мосад бяха подобрили създадена в Белгия пушка с модернизиран роботизиран уред, който се побира в пикап и е оборудван с набор от камери, осигуряващи цялостен аспект на задачата и околната среда. За да се оправи със забавянето в предаването на сигнали към оръжието, Мосад употребява програмен продукт с изкуствен интелект, с цел да вземе поради забавянето във времето, треперенето на камиона, породено при изстрелването на всеки патрон и скоростта на транспортното средство на Фахризаде.

Вместо да служи като изключение, интервенцията е предвестител на бъдещи нововъведения. Големи и дребни народи се надпреварват да придобият усъвършенствани дронове, да включат разбор на алгоритмично ориентиране и да разработят набор от самостоятелни наземни и морски оръжия, всичко това с малко контрол или ограничавания. Поради това е неотложно страните да се спогодят за общи правила за създаването, разполагането и потреблението на тези принадлежности по време на война.

За да подобрят надзора и предсказуемостта, специалистите и политиците би трябвало да обмислят какви стъпки биха могли да подхващат водещите сили в Изкуствения интелект. Съединените щати биха могли да водят по пътя, като обещаят контрол върху личното си развиване на оръжия с изкуствен интелект. Може също по този начин да се обединят с други народи, с цел да се сътвори самостоятелна експертна група за наблюдаване, която да следи по какъв начин AI се употребява във война. И най-после, страните би трябвало да седнат на масата, с цел да решат нормите за потребление на нововъзникващи военни технологии - преди да е станало прекомерно късно.

От Украйна до Газа. Системите с изкуствен интелект, свързани с националната сигурност, обгръщат редица приложения, само че могат да бъдат необятно класифицирани като задания нагоре по веригата (разузнаване, наблюдаване и разузнаване; командване и контрол; ръководство на информацията; логистика; и обучение) и задания надолу по веригата (избор на цели и нападение). По-конкретно, AI приложенията разрешават на военните по-голям изчерпателен потенциал - да събират и проучват данни от бойното поле и да усъвършенстват оперативния потенциал - за ракетни удари и за разполагане на самостоятелни дронове, задвижвани от AI.

Някои специалисти настояват, че Съединените щати не могат да си разрешат да спрат напредъка към създаването на изцяло самостоятелни оръжия, с цел да не би китайците или руснаците да надминат техните старания. И несъмнено, опциите на AI бързо се популяризират. Както демонстрират войната в Украйна и военните дейности в Газа, без обща рамка и съгласувани ограничавания страните рискуват да изпаднат в конкуренция към удавяне, като поредно разполагат по-разрушителни системи с нищожни ограничавания.

Настоящата война в Украйна е разказана като " супер лаборатория за изобретения ", която даде опция на софтуерни компании и бизнесмени да тестват нови принадлежности непосредствено на бойното поле. Конфликтът разкри огромна смяна в метода, по който се води война. Една от най-значимите промени беше въвеждането на интегрирани системи за ръководство на борба, които оферират настояща бистрота по отношение на придвижванията и местоположенията на войските - чак до равнищата на главните единици. " Днес колона от танкове или колона от настъпващи войски може да бъде открита за три до пет минути и изумена за още три минути ", предизвестява генерал-майор Вадим Скибицки, почитан чиновник във военното разузнаване на Украйна. " Оцеляването в придвижване е не повече от 10 минути. "

Фронтовата линия на Украйна е наводнена от безпилотни летателни апарати, които освен обезпечават непрекъснато наблюдаване на развиването на бойното поле, само че когато са съчетани със системи за ориентиране, задвижвани от изкуствен интелект, също разрешават съвсем незабавно заличаване на военни активи. Естествено, както руснаците, по този начин и украинците се насочиха към електронната война против дронове, с цел да обезвреждат въздействието на безпилотните летателни апарати. Но това докара до друго развиване - бърз подтик към цялостна автономност. Като боен академик T.Х.Хеймс пише: " Автономните дронове няма да имат уязвимата радио връзка с водачите, нито ще имат потребност от GPS ориентиране. Автономията също ще усили доста броя на дронове, които могат да бъдат употребявани едновременно. "

Военният AI по сходен метод оформя войната в Газа. След като бойци на Хамас смаяха силите на Израел, като обезвредиха високотехнологичните благоприятни условия за наблюдаване на " Желязната стена " на страната - дълга над 64 км физическа преграда, оборудвана с интелигентни видеокамери, лазерно насочвани датчици и модернизиран радар - Израел си върна софтуерната самодейност. Израелските отбранителни сили (IDF) употребяват платформа за ориентиране с изкуствен интелект, известна като " Евангелието ". Според отчетите, системата играе централна роля в продължаващото навлизане, произвеждайки " автоматизирани рекомендации " за идентифициране и атакуване на цели. Системата беше задействана за първи път през 2021 година, по време на 11-дневната война на Израел с Хамас. За спора от 2023 година IDF пресмята, че е атакувала 15 000 цели в Газа през първите 35 дни на войната. (За съпоставяне, Израел удари сред 5000 и 6000 цели в спора в Газа през 2014 година, който продължи 51 дни.) Докато " Евангелието " предлага сериозни военни качества, жертвите на цивилни са тревожни. Един източник разказва платформата като " фабрика за всеобщи убийства " с акцент върху количеството цели пред качеството им. Съществува също по този начин риск, зависимостта на Израел от насочването с ИИ да води до " пристрастност към автоматизацията ", при която човешките оператори са предразположени да одобряват машинно генерирани рекомендации при условия, при които хората биха стигнали до разнообразни изводи.

Възможен ли е интернационален консенсус? Както свидетелстват войните в Украйна и Газа, съперничещите си армии се надпреварват да внедрят автоматизирани принадлежности макар оскъдния консенсус по отношение на етичните граници за внедряване на неизпитани технологии на бойното поле. Моите проучвания демонстрират, че водещи сили като Съединените щати са се заели да употребяват " налични, самостоятелни системи във всички области ". С други думи, огромните армии премислят главните правила за това по какъв начин се води война и се опират на нови технологии. Тези развития са изключително притеснителни в светлината на голям брой неразрешени въпроси: Какви тъкмо са разпоредбите, когато става въпрос за потребление на смъртоносни самостоятелни дронове или роботизирани картечници в обитаеми места? Какви защитни ограничения са нужни и кой е отговорен, в случай че цивилни бъдат засегнати?

Тъй като от ден на ден и повече страни се убеждават, че AI оръжията държат ключа към бъдещето на войната, те ще бъдат подтиквани да наливат запаси в създаването и разпространяването на тези технологии. Въпреки че може да е непрактично да се забранят смъртоносни самостоятелни оръжия или да се лимитират принадлежности с задействан AI, това не значи, че нациите не могат да поемат повече самодейност, с цел да оформят метода, по който се употребяват.

Съединените щати изпратиха смесени известия в това отношение. Докато администрацията на Байдън пусна набор от политики, очертаващи виновното потребление на самостоятелни оръжия и призоваващи страните да ползват споделени правила на отговорност за оръжия с ИИ, Съединените щати също попречиха напредъка на интернационалните конгреси. В подигравка на ориста, на неотдавнашно съвещание на комитета на Организация на обединените нации за самостоятелните оръжия, съветската делегация в действителност поддържа американската позиция, която твърди, че слагането на самостоятелни оръжия под " забележителен човешки надзор " е прекомерно ограничаващо.

Американските политици могат да се оправят по-добре с три хрумвания, които си коства да бъдат прегледани.

Първо, Съединените щати би трябвало да се ангажират със логичен контрол във връзка с създаването на самостоятелни оръжия и оръжия с изкуствен интелект от Пентагона. Новата изпълнителна заповед на Белия дом по отношение на изкуствения разсъдък постанова създаването на меморандум за националната сигурност, който да очертае по какъв начин държавното управление ще се оправи с рисковете за националната сигурност, подбудени от технологията. Една концепция за би била да се сътвори граждански съвет за национална сигурност за AI, евентуално моделиран от Надзорния съвет за неприкосновеността на персоналния живот и гражданските свободи (организация, която има за задача да подсигурява, че федералното държавно управление балансира напъните за предварителна защита на тероризма със отбраната на гражданските свободи).

Такъв индивид може да получи надзорни отговорности за покриване на AI приложения, за които се допуска, че засягат сигурността и правата, както и да му бъде предоставено да следи настоящите процеси на AI - без значение дали поучава новата работна група за генериране на AI на Министерството на защитата или предлага препоръки на Пентагона по отношение на AI артикули и системи в развой на разработка с частния бранш. Свързана концепция би била организациите за национална сигурност да основат независими екипи за оценка на риска от ИИ. Тези звена ще управляват функционалностите за интегрирана оценка, планиране, образование и оценка на риска, които ще основат оперативни насоки и защитни ограничения, ще тестват за опасности, ще насочват дейностите за сливане на AI и ще правят прегледи след деяние.

Второ, Съединените щати и сходни на тях демокрации би трябвало да упорстват за основаването на интернационална самостоятелна експертна група, която да следи продължаващите резултати от инструментите на ИИ, употребявани във война. Например, в случай че отчетите са правилни, че " 90 % от ударените цели " в спора в Газа се дължат на рекомендации, генерирани от AI, тогава е редно политиците да имат по-подробно схващане за рисковете и изгодите от такива системи. Какви са гражданските въздействия на тези платформи за ориентиране? Какви параметри се употребяват и какво равнище на контрол се упражнява върху логаритмите за ориентиране? Какъв вид процедури за отчетност съществуват? Целта на групата ще бъде да насочи вниманието към области на активност и да предложи рекомендации за държавните управления и интернационалните организации по какъв начин да разрешат зараждащите проблеми.

И най-после, страните би трябвало да се спогодят за определяне на долна граница за държание за това по какъв начин военните ще употребяват нововъзникващите технологии във война. Като в " Дивия Запад " страните внедряват нови технологии, за да по-напред в отбрана на ползите си в региона на сигурността. Рискът е страните, изключително недемократичните режими, да стартират конкуренция, употребявайки все по-смъртоносни комбинации от принадлежности за унищожителен резултат. Правителствата биха могли да се спогодят за съществени параметри - заимствайки частично правилата на военния ИИ, препоръчани от Съединените щати и други страни - с цел да подсигуряват, че потреблението на оръжия с ИИ е в сходство с интернационалното филантропично право и че са налице защитни ограничения за намаляване на риска от непреднамерена ескалация и пагубни провали.

Това надали е първият път, когато интернационалните водачи се изправят пред опустошителния капацитет на новите технологии. Точно както световните водачи реализираха консенсус след Втората международна война за основаване на линии на държание посредством Женевските конвенции, интернационалните водачи би трябвало да подхващат сходни старания за AI технологиите. Либералните демокрации могат да играят доста по-голяма роля в определянето на правила и съществени условия за разгръщането на тези мощни нови технологии за война.
Източник: news.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР