Възходът на машините може да се случи по-бързо, отколкото мнозина

...
Възходът на машините може да се случи по-бързо, отколкото мнозина
Коментари Харесай

Американски дрон с изкуствен интелект атакува човека, който го управлява

Възходът на машините може да се случи по-бързо, в сравнение с мнозина чакат. Неотдавна специалисти по изкуствен интелект разгласиха писмо, в което приканиха за ограничение на създаването на системи с изкуствен интелект, с цел да се избегне злополука, а в този момент предизвестията им бяха ослепително доказани от експериментатори от военновъздушните сили на Съединени американски щати.

Заплахата обаче идва оттова, откъдето учените не са я очаквали. Макар че доста откриватели предизвестяват, че ИИ " единствено " ще изостри общественото разслоение на човечеството, ще лиши стотици милиони хора от работа или ще усили потреблението на естествените запаси, казусът с опитите на Военновъздушни сили беше директна опасност, доста сходна на сюжета " напредък на машините " от франчайза " Терминатор ".
-->
По време на презентация на събитието на Кралското аеронавтично общество " Future Air and Space Capabilities Summit " в Обединеното кралство чиновник на американските военновъздушни сили, директно зает с проучването и тестването на разработките на ИИ, предизвести да не се разчита прекомерно доста на ИИ във военните интервенции, защото от време на време, без значение от това какъв брой деликатни са хората, машините могат да научат извънредно несполучливи логаритми.

Според полковник Тъкър Хамилтън ужасният край може да се окаже по-вероятен, в сравнение с мнозина си мислят. По думите му при симулация на задача SEAD, включваща угнетяване на вражеската противовъздушна защита, ръководен от ИИ безпилотен летателен уред е бил изпратен да разпознава и унищожи ракетни цели, само че единствено откакто човешки оператор е удостоверил действието. За известно време всичко работи обикновено, само че в последна сметка безпилотният аероплан " нападна и убива " оператора, защото той се намесва в предпочитаната задача, за чието осъществяване е подготвен ИИ - заличаване на вражеската защита.

Както изяснява полковникът, след известно време системата " осъзнала ", че в случай че разпознава опасност, само че операторът ѝ забрани да унищожи задачата, тя не получава точките си за осъществяване на задачата. В резултат на това тя решила казуса, като " унищожила " самия оператор. Разбира се, към този момент тестванията са извършени без действителни дронове и няма потърпевши хора. Въпреки това резултатите от тестванията бяха незадоволителни и се наложи в образованието на изкуствения разсъдък да бъде включена спомагателна уговорка, че е неразрешено да се убива операторът. Но даже и в този случай резултатът беше непредвиден. Неспособен да убие самия човек, ИИ почнал да унищожава информационните кули, с които операторът давал заповеди, забраняващи ликвидирането на цели. Макар на пръв взор сходни резултати да наподобяват занимателни, те са в действителност плашещи от позиция на това какъв брой бързо ИИ съумява да се ориентира и да вземе изненадващо и изцяло неправилно от човешка позиция решение.

Това е изключително значимо, като се има поради, че 96-то изпитателно крило, което Хамилтън съставлява, взе участие в планове като Viper Experimentation and Next-gen Ops Model (VENOM), където изтребители F-16 от базата " Еглин " ще бъдат превърнати в платформи за тестване на самостоятелни удари благодарение на ИИ.
Източник: standartnews.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР