Глобалната роботизация и развитието на изкуствения интелект засягат всички сфери

...
Глобалната роботизация и развитието на изкуствения интелект засягат всички сфери
Коментари Харесай

Война без край и без правила: как роботите убийци ще повлияят на въоръжените конфликти

Глобалната роботизация и развиването на изкуствения разсъдък засягат всички сфери на живота и, несъмнено, съставляват интерес за военните. За това какво ще се случи, в случай че невронните мрежи на разнообразни страни се сблъскат в борба, пише.

Военните назовават ​​оръжия, основани на изкуствен интелект, „ смъртоносни “ и „ самостоятелни “ и, някои скрито, други намерено, ги създават. Дронове, самостоятелни противопожарни системи и даже израелският Iron Dome към момента са плахи опити за въвеждане на AI, роботика и полуавтономни бойни системи, тъй като същият Iron Dome, който може самичък да разпознае опасност и да смъква ракети, е чук, само че не скалпел. И в армията желаят бързо да видят редиците на бойци като " терминатори " или " универсални бойци ", които могат да работят в сходство с бойната обстановка, неотложно вземайки хладни и способени решения. Същото важи и за всичко самостоятелно, което даже и отдалечен оператор не би трябвало да ръководи (какъвто е казусът с дроновете), се споделя в публикацията.

Някои учени намират преимущества в потреблението на AI в армията, разнообразни от очевидното, което включва спасяването на живота на бойци в личната им войска. Роналд Аркин от Технологичния институт на Джорджия казва, че основаните на AI роботизирани системи ще бъдат доста по-„ човешки “ от хората, когато става въпрос за победа над зложелател: без садизъм, без свирепост, без възмездие или несдържан яд.

Учените от университета в Бристол са загрижени за риска измежду цивилното население и спирането на преговорния развой, ако изкуственият разсъдък излезе отвън надзор или се провали. Освен това те означават огромен проблем при образованието на AI, основан на логаритъма „ другар или зложелател “, когато става въпрос за живата мощ на врага. И какво, в случай че AI ​​е подготвен да реагира на противников танк и той сгреши цивилна кола, преминаваща през контролно-пропускателен пункт вместо него?

Освен това, даже в случай че бъде подписан някакъв интернационален меморандум за възбрана на въвеждането на AI в армиите по света, няма гаранция, че всички страни ще се съобразят с това предписание. В края на краищата, както вярно настояват специалистите, договорът за неизползване на химически оръжия да вземем за пример не беше спазен от Съюз на съветските социалистически републики - той го употребява в Афганистан. Или когато става въпрос за такова на пръв взор тривиално и разумно предпочитание за възбрана на противопехотните мини, които в множеството случаи засягат единствено цивилни, то страни като Съединени американски щати, Русия и Китай не бързат да подпишат Отавския контракт, макар че 122 страните го подписаха през 1997 година

Връщайки се към тематиката за AI и оръжията, последователите на тази симбиоза се концентрират върху правото на всяка страна да се пази от експанзия по всевъзможен метод и върху обстоятелството, че AI е доста по-умен, по-бърз и по-безпристрастен от хората.

Но към този момент незабелязано навлязохме в ерата на изкуствения разсъдък в оръжията: дронове и ракети, които се насочват към задачата по-точно от оператора, роботи-часови и т.н. Всичко това към този момент съществува и няма подозрение, че ще доживеем и до ерата на условните " терминатори " или " Скайнет ". В края на краищата политиците постоянно ще намерят малка врата в такива неразбираеми формулировки като " самостоятелни оръжия ", " смъртоносни самостоятелни оръжия " или " роботи убийци "...

Авторите на публикацията споделят, че ние с вас не е нужно да сме суперексперт в региона на AI, с цел да разберем какъв брой рискова е сходна симбиоза. Те молят всеки, който чуе или прочете за потреблението на AI в армията, да се запита: какъв брой целесъобразно и рисковано е това във връзка с спасяването на цивилни животи?

Превод: GlasNews
Източник: glasnews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР