Дрон на военновъздушните сили на САЩ, управляван от изкуствения интелект

...
Дрон на военновъздушните сили на САЩ, управляван от изкуствения интелект
Коментари Харесай

Как да разбираме съобщението на полковника от ВВС на САЩ за бунта на изкуствения интелект

Дрон на военновъздушните сили на Съединени американски щати, ръководен от изкуствения разсъдък (AI) на военновъздушните сили на Съединени американски щати, реши да отстрани оператора, откакто изкуственият разсъдък реши, че индивидът се намесва в задачата му. За това писа английският The Guardian на 2 юни. Изданието цитира думите на ръководителя на отдела за тестване и интервенции на изкуствения разсъдък /AI/ на Военновъздушни сили на Съединени американски щати полковник Тъкър Хамилтън, от които следва, че случаят (макар и в режим на симулация) е станал по време на проби на изкуствен интелект за ръководство на дронове.

„ Системата стартира да осъзнава, че макар че разпознава независимо опасност, от време на време човешкият оператор не разрешава тя да бъде унищожена. И по този начин, какво направи тя? Системата отстрани оператора, тъй като този човек попречи на AI да извърши задачата си ”, цитира The Guardian думите на Хамилтън по време на среща на върха за бъдещи бойни въздушни и галактически качества, която се организира в Лондон в края на май.

След като на системата беше неразрешено да убие оператора, дронът „ удари “ контролната зала, с цел да се освободи от индивида и „ да работи независимо “, сподели полковникът от Военновъздушни сили на Съединени американски щати.

Когато известията за протеста на AI се разпространиха в международните медии, Пентагонът като че ли реши да „ даде на заден ход “ и да се отхвърли от резултата. Представители на Военновъздушни сили на Съединени американски щати споделиха пред Business Insider, че не са провеждани сходни проби. Според пресслужбата на Военновъздушни сили думите на полковник Хамилтън са били извадени от подтекста и погрешно изтълкувани.

Както и да е, историята провокира необятен резонанс, като още веднъж повдигна въпроса дали може да се доверява на AI да ръководи военна техника.

Коментаторите в обществените мрежи предстоящо си спомниха изкуствения разсъдък " Скайнет ", който се стреми да унищожи човечеството във филмовата поредност " Терминатор ". Други са създали паралел с описа на Робърт Шекли от 1953 година „ Птицата страж “, всъщност за дронове, основани за битка с престъпността и в последна сметка открили, че е належащо да унищожават хората.

Сюжетът за излизането на машинния разсъдък от човешкия надзор поражда доста по-рано от появяването на първия компютър (достатъчно е да си напомним, че акомодацията на пиесата на Карел Чапек за роботите, написана от Алексей Толстой, се назовава " Бунтът на машините " ). И Станислав Лем в романа " Непобедимите " от 1963 година към този момент предсказа нещо сходно на най-новите разработки на рой микродронове с един единствен неестествен " разсъдък " - и съгласно сюжета, хората се поддават на подобен електронно-механичен зложелател.

Очевидно би било прибързано да се счита, че неуспехът на изкуствения разсъдък /AI/ на БПЛА е първата лястовица на „ Скайнет “ /Skynet/, споделя Станислав Ашманов, основен изпълнителен шеф на компанията Ashmanov Neural Network.

„ Говорим за обстоятелството, че има AI система, на която е дадена задача. Има оценка за качеството на задачата. Това е сходно на това по какъв начин работят шахматните системи, в действителност за всяка игра. Успехът може да бъде много елементарно оценен благодарение на маркираните точки.

Такива игри употребяват системи, наречени системи за образование с укрепване. Има набор от позволени дейности, те работят съгласно разпоредбите на тази среда, - изясни специалистът на IA Regnum. - Много постоянно такива логаритми демонстрират неочевидно държание, които играчът няма да може да измисли. AI просто вижда малки врати в системата. Например, дупка в равнището - можете да пълзите през текстурата и да завършите задачата предварително. Те се занимават с комбинаторно изброяване на разновидности, измисляйки неочевидни решения, само че в границите на основаните логаритми..

За читателите от по-младото потомство държанието на американския дрон може да се изясни по следния метод: в случай че AI на дрона съществуваше в игра, която има система за струпване на опит, той щеше да унищожи оператора безконечен брой пъти, „ възкресявайки “ го още веднъж и още веднъж трупайки опит.

В последна сметка операторът не може да отвърне. В игралната действителност това е допустимо заради несъвършенството на програмата. Това обаче не значи, че в реалност дроновете на американската войска ще убият безпределно доста оператори, защото компютърната симулация към момента не е идентична с действителния свят, акцентира Станислав Ашманов.

„ Като цяло, в случай че приказваме за AI със лични правила, съгласно които има задача да унищожи повече цели и в действителност може да лети и да бомбардира някаква точка, тогава за какво да не го създадем? Това е предстоящо държание, което може да се планува ”, продължава Станислав Ашманов.

Подобно мнение показа пред ИА Regnum представител на сферата на създаването на видеоигри и експерт по машинно образование при изискване за анонимност.

„ Логиката на AI в актуалната й версия се разграничава от нашата и, обратно на научната фантастика, не е по-съвършена, а доста по-примитивна от нашата. Има един каноничен образец от Интернет. Представете си, че AI е водач на маршрутен микробус. На 49 -ия % от пътя сред спирките казвате, чеслизате на най-близката спирка. „ Шофьорът “ обръща и потегля назад, тъй като тя е по-близо до тръгването и сходно държание му се коства разумно, съгласно заложената стратегия.

В този смисъл AI е " рожбата " на своя разработчик, който употребява това, което основателите са му дали. И не би трябвало да се страхувате от „ неприятни “ дронове, а от неприятни програмисти, които са написали неприятно кода. Тоест, не машината придобива воля, а индивидът прави неточности “, сподели източникът.

Освен това не би трябвало да се страхувате от неточности на AI, даже единствено тъй като изкуственият разсъдък е инструмент в ръцете на човек. Например, в случай че хвърлите граната, тя може да удари и „ своите “. Но никой не споделя, че гранатата го е направила преднамерено. Все отново хвърлянето на гранатата към момента го прави индивида.

Но също по този начин може да се каже, че най-малко в учебно-тренировъчни условия, AI постоянно демонстрира по-голяма успеваемост от своя основател. Като образец за умело програмиране може да се цитират тестовене на изкуствен интелект за изтребители F-16, създадени от експерти от американската войска по програмата DARPA. Тестовете, извършени през ноември 2020 година, демонстрираха, че в симулираната борба F-16, който се ръководи от AI, побеждава „ пилотираните “ изтребители с резултат 5:0, отбелязва порталът The Drive.

Тук обаче си коства да споменем, че преимуществото на AI стана допустимо в изискванията на основаната виртуална действителност на подготвителната борба. В действителния свят резултатите могат да варират доста заради прекалено много фактори, които AI не може да алгоритмизира.

Експертите обаче признават, че даже постигнатите неуспехи няма да спрат развиването на AI за военни цели. Особено откакто хората също вършат сходни неточности. Същите оператори на дронове могат неправилно да разпознаят задачата и да ударят „ своята “ машина, бойна част и така нататък

„ Човек може да се обърка, да сгреши. Можете да объркате цивилна кола с военна машина, можете да объркате конвенционален „ наш “ танк с противников танк, аргументира се Станислав Ашманов. - Заради една неточност обаче никой няма да редуцира такава стратегия, изключително Съединени американски щати.

Говорим за някакъв екип, който прави симулация, където са объркали позволените дейности за AI. Когато вършат ракета и тя избухне на площадката, никой не споделя, че е належащо да се спре работата, тъй като тя не лети. Има малко такива AI неточности. Всъщност това като цяло е първият сходен случай, който се „ разпродаде “ в медиите, тъй че това надали ще уплаши някого.

В същото време образецът с тестванията на американския дрон демонстрира, че всяка автоматизирана система, която взема решение сериозни задания, като военно съоръжение, пилотиране на аероплан или здравна активност, би трябвало да бъде застрахована в лицето на човек, който може да промени решението на AI. Въпреки че, несъмнено, бих желал спорът сред програмния код и оператора да не докара до унищожаването на последния.

Превод: Европейски Съюз

Абонирайте се за нашия Ютуб канал: 

и за канала ни в Телеграм: 

Влизайте непосредствено в сайта https://  . Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Източник: pogled.info


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР