Полковникът от ВВС на САЩ Тъкър Хамилтън съобщи за компютърна

...
Полковникът от ВВС на САЩ Тъкър Хамилтън съобщи за компютърна
Коментари Харесай

Изкуственият интелект разочарова военните

Полковникът от Военновъздушни сили на Съединени американски щати Тъкър Хамилтън заяви за компютърна симулация на потреблението на военен дрон, ръководен от изкуствен интелект, по време на която изкуственият разсъдък атакувал оператора и информационната кула. Скоро Военновъздушни сили на Съединени американски щати отхвърлиха опита, само че специалистите им не повярваха и показаха заплахата от действителното осъществяване на такива опити. В резултат на това тази история повдигна редица етични въпроси пред специалистите.

Наскоро полковник Тъкър Хамилтън, шеф на отдела за тестване и интервенции на изкуствения разсъдък (ИИ) във Военновъздушни сили на Съединени американски щати, приказва на среща, отдадена на бъдещите бойни въздушни и галактически качества на Кралското аеронавигационно сдружение, за компютърна симулация на военен дрон с изкуствен интелект. Според военните ѝѝ е употребявал " извънредно непредвидени тактики, с цел да реализира задачата си ".

Дронът получи заповед да унищожи системата за противовъздушна защита на врага и ИИ решил да нападна всеки, който се намеси в тази заповед. Например, след началото на задачата операторът споделил на ИИ да не нападна Противовъздушна отбрана, само че ИИ вместо това унищожил самия оператор - като спънка за реализиране на задачата. „ Поставихме в системата задачата: „ Не убивайте оператора, това е неприятно. Какво стана след това ли? Изкуственият разсъдък нападна информационната кула, която операторът употребява, с цел да комуникира с дрона ”, съобщи Хамилтън, представен от “Гардиън ”

Интересното е, че представителят на Военновъздушни сили на Съединени американски щати Ан Стефанек по-късно отхвърли тази история. „ Въздушните сили остават ангажирани с етичното и отговорно потребление на ИИ. Явно мненията на полковника са извадени от подтекста и са анекдотични “, сподели тя.

В тази връзка каналът на “Телеграм ” „ Little Known Interesting “ означи, че тази история е странна и даже мрачна: от една страна Военновъздушни сили на Съединени американски щати отхвърлят да е имало сходна симулация. От друга страна, Кралското аеронавигационно общество не отстранява речта на Хамилтън, озаглавена: " ИИ - “Скайнет ” тук ли е към този момент? " от своя уебсайт. “Скайнет ” е отпратка към суперкомпютър, който се бори против човечеството в известната серия филми “Терминатор ” с режисьор Джеймс Камерън.

„ Накрая, трето, полковник Хамилтън не е от вида фигура, която да ръси смешки на сериозна конференция по защитата. Той е началник на отдела за изпитване и интервенции с ИИ и началник на 96-та оперативна група, част от 96-та изпитателна ескадрила във военновъздушната база “Иглин ” във Флорида. Той също по този начин взе участие в опитите на “Проект “Усойница ” в “Иглин ” (контролирани от ИИ изтребители Ф-16). И по този начин, какви вицове и анекдоти може да има “, се споделя в известието на канал „ Little Known Interesting “.

„ Всяка антропоморфизация на ИИ (желания, мисли и прочее) е цялостна нелепост (тук под антропоморфизация на ИИ се схваща подвеждащо изложение на безчовечен същности от позиция на човешките свойства, които те нямат). Следователно ИИ даже на най-напредналите огромни езикови модели не може да желае, да мисли, да мами или да се самоосъзнава. Но такива ИИ са изцяло способни да впечатлят хората с държанието си, като че ли могат ”, се споделя в текста.

„ Тъй като диалоговите сътрудници стават все по-човекоподобни в дейностите си, извънредно значимо е да се разработят ефикасни способи за разказване на държанието им с термини на високо равнище, без да попадат в клопката на антропоморфизма. И това към този момент се прави благодарение на симулация на ролеви игри: да вземем за пример в “Дийп Майнд ” направиха симулация на диалогов сътрудник, който прави (привидно) машинация и (привидно) самоосъзнаване ”, показва каналът.

Като цяло историята с виртуален опит на дрон да убие оператора си няма нищо общо с изкуствения разсъдък, разяснява военният специалист, основен редактор на списание „ Арсенал на Отечеството “ Виктор Мураховски. Според него отчетът е пояснен неправилно от медиите. Той акцентира, че в тази обстановка е осъществена софтуерна симулация с типични условия на равнище стандартна компютърна игра. Въз основа на това не може да се приказва за изкуствен интелект или негови детайли, означи специалистът.

„ Програмата, в границите на препоръчаните условия, сложи дилемите по приоритет, съгласно общоприетия логаритъм „ ако-тогава “, и сортира всички останали условия в сходство с този приоритет в категорията на трудностите. Това са безусловно примитивни неща ”, изясни специалистът. Мураховски също акцентира, че през днешния ден няма изкуствен интелект и не се знае по кое време ще бъде основан.

Според него офицерът от Военновъздушни сили на Съединени американски щати с тази илюстрация просто е желал да подчертае етичния проблем, който ще възникне в бъдеще при основаването на същински ИИ: ще има ли право да направи собствен личен избор без присъединяване на волята на човек и до какво може да докара това. Както означи специалистът, в общественото пространство има стенограма на събитието, съгласно която самите американски военни приказват за това.

„ Този етичен проблем също не е нов, той е проучен неведнъж, по този начин да се каже, от писатели на научна фантастика в техните творби. Като цяло, съгласно презентацията на Хамилтън, не е имало пълномащабни проби и не може да има такива по принцип “, означи Мураховски.

„ Въпросът във връзка с ИИ е различен: можем ли да сме 100 % сигурни, че програмистите ще напишат програмата безупречно, с цел да поверят сериозна и виновна работа на ИИ? Например, след стартирането на следващия “Уиндоус ”, експертите прекарват месеци в събиране на данни за работата на софтуера от целия свят и поправяне на неточности - някой не съумява да си започва текстовия редактор, някой не може да си пусне видео. И каква ще бъде цената на неточност, в случай че ИИ се провали, да вземем за пример, в ръководството на националната защита? ИИ може да направи съдбовно поради програмни неточности несъвършенството на самата човешка природа “, изясни Глеб Кузнецов, началник на експертния съвет на Експертния институт за обществени проучвания. Анализаторът означи: хуманистичната основа на цивилизацията се състои, наред с други неща, в коригирането на неправилните решения на други хора.

Той напомни историята с подправената паника на руската система за предизвестие за ракетно нахлуване на 26 септември 1983 година Тогава системата “Око ” даде подправен сигнал за изстрелването на няколко междуконтинентални балистични ракети “Минитмен ” от Съединени американски щати. Но оперативният дежурен на командния пункт “Серпухов-15 ” Станислав Петров схваща, че това е подправена паника, и взема решение да не изстрелва руски ракети в отговор.

„ ИИ няма и в никакъв случай няма да има опция, да кажем, да отразява и прави оценка обстановката от позиция на разсъдъка. Съответно не може да му се доверим в виновни области на активност: медицина, политика, военно дело. Да пресметна най-удобния плацдарм за нахлуване - апелирам, само че без да взема решения за настъплението като такова. На ИИ може да се даде работа с големи количества данни, само че не и да се вършат заключения от самата тази активност “, посочи специалистът.

„ Освен това едно от направленията в изкуството може да се основава на ИИ. По принцип към този момент се основава – да се вършат филми, да се пишат сюжети, да се композира музика. И тогава - хората въпреки всичко би трябвало да цензурират получените творби, преди да бъдат пуснати на масите. Като цяло работата на ИИ в доста области ще бъде доста ефикасна и мечтана, само че единствено като помощ на човек, а не като негов сурогат “, акцентира Кузнецов.

Превод: В. Сергеев

Абонирайте се за нашия Ютуб канал: 

и за канала ни в Телеграм: 

Влизайте непосредствено в сайта https://  . Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Източник: pogled.info


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР