Приближават ли ни AI-оръжията към Апокалипсиса?
" Системи, които употребяват изкуствен интелект за определяне на военни цели, се употребяват в Украйна и в Близкия изток, редица страни пристъпват към въоръжаване на армиите си с такива приложения. Това поражда въпроса до каква степен би било възможно да се позволи на машините да взимат военни решения. "
Това е един от причините на Бюлетина на нуклеарните учени - организация, основана през 1945 година от Айнщайн и негови сътрудници от плана " Манхатън " - да сверят предходната седмица с една секунда напред символичния Часовник на Страшния съд . Той отмерва към този момент единствено 89 секунди до среднощ, или до Апокалипсиса.
Препятствията пред всеунищожителен нуклеарен спор понижават, климатичните промени имат все по-ясни и разрушителни последици, опасността от смъртоносни биологични болести се усилва, предизвестяват още учените в Бюлетина.
Публично изтъкваните опасности от светкавичното софтуерно развиване в последните години най-често са свързани с разпространяването на дезинформация и към момента неразбираемата вероятност скоро да произведем машини със личен разсъдък и воля. Такива към този момент няма, само че компютърно опосредстваните човешки решения са задоволително притеснителни. Особено в случай че изкуствен интелект бъде вграден в оръжейни системи.
Мишел Флорной, някогашен почитан чиновник в министерството на защитата на Съединени американски щати, разказва в публикация за " Форин Полиси " следната проява от 2002 година. Малък безпилотен уред, ръководен от изкуствен интелект, е пуснат от боец във вражеска постройка. Изцяло разчитайки на датчиците си, машината прелита през стаите и праща проект на постройката и точното местонахождение на хората в нея, с цел да насочи изчакващия отряд.
От тази проява са минали повече от 20 години, а технологиите насочват армиите по доста нови способи.
Самата Флорной разказва някои от към този момент внедрените от Пентагона благоприятни условия на изкуствения разсъдък.
" Най-напред имаме доста мъдро взимане на решения за систематизиране на ресурсите и преценка на краткотрайните и дълготрайни резултати от несъмнено решение за бюджета. Втори образец е работата с оперативни данни от оръжейните системи - използваме изкуствения разсъдък, с цел да разберем по кое време избрана част от устройството може да спре да работи. Това усъвършенства парите за поддръжка, отстранява потребността от непотребна профилактика и по едно и също време с това предотвратява пагубни повреди. Това към този момент ни икономисва големи средства.
Третият образец е изпреварващото разузнаване. Използваме изкуствения разсъдък, с цел да проучва огромни количества данни и да разпознае поведенчески модели, в чието проучване да се задълбочим. Това значи, че виждаме признаците за идно събитие. На процедура такова събитие беше нахлуването в Украйна, различен образец са придвижванията на галактически апарати на наши противници. Системата дава повече време за реакция на взимащите решения. Тя не заменя човешката преценка, а я улеснява ".
И още - съгласно Флорной, AI-системи към този момент могат да плануват държанието на противников водачи или пък да подкрепят сигурността на военните компютърни мрежи при хакерски атаки като пренасочат контрола над тях.
Както във всяка друга сфера на живота, компютърът е консултант и опосредства избрани човешки дейности. Но дейностите си остават човешки. Няма аспект към дистопичните картини на стрелящи роботи, най-малко към този момент.
Внедряването на изкуствения разсъдък във въоръжението е една от аргументите от Бюлетина на нуклеарните учени - организация, занимаваща се със заканите за човешкото битие, алегорично да дефинират Апокалипсиса за секунда по-близък ".
Тази седмица разговарях с един от създателите на тази оценка - доктор Хърбърт Лин от университета " Станфорд ", който има десетилетен опит в проучването на връзката сред киберпространството и защитата. Разговорът ни съдържа много въпроси без отговор и няколко констатации.
" В момента изкуствен интелект се употребява в Газа, с цел да предлага цели за военни набези. Говорим за живи хора, които системата разпознава като законна военна цел за израелските сили. Те употребяват огромни бази данни, технологии за различаване на лица и други способи. Какви обаче са критериите, по които някой бива избран за цел? Това, което също буди терзание е дали индивидът, който взима финалното решение, ще одобри сляпо предлагането на машината, смятайки че то е вярно по дифолт ".
Миналата година журналистическо следствие, в което се включи и английският в. " Гардиън ", стигна до информацията, че в Газа тази човешка оторизация лишава приблизително 20 секунди. Списание " Тайм " разказва три приложения, употребявани от израелската войска - едно от тях маркира здания, в които е допустимо да има наличие на Хамас. Второто разпознава членове на групировката, от командири до най-обикновени бойци. Третото наблюдава придвижването на към този момент набелязаните бъдещи жертви, като достигането на мястото, считано за техен дом, е последното удостоверение за самоличността им. Следва удар, а на мястото е доста евентуално да се намира и фамилията на индивида, набелязан за цел от машината.
Контрааргументът на израелската страна е, че разследващи данни за нечие местонахождение се употребяват във военни спорове доста преди този в Газа, както и че новите системи основават преценката си на доста повече данни и потвърждения, в сравнение с са били нужни за военна бомбардировка в предишното. Но израелците не отхвърлят, че човешката инспекция на машинната преценка лишава 20 секунди. Удари по жилищни постройки, в които се намират членове на " Хамас, " са най-голямата причина за големите цивилни жертви в линията.
Жестокостта на описаната обстановка се предпоставя и от гъстотата на популацията на дребна повърхност там. При по-малки несъгласия, изкуствен интелект се употребява за набелязване на цели и в Украйна. На разположение на силите на Киев са продуктите на американската компания " Палантир ", чието лицево различаване употребява данни от дронове, спътници, класифицирана информация и, несъмнено, споделеното от всички нас в интернет. Освен това те оказват помощ за засичането на маневри на съветска военна техника.
Притеснителна е вероятната последваща софтуерна стъпка:
" Използването на компютри за различаване на заплаха към този момент е довело до това машината да предлага и дефинира цели. Защо напряко не й дадем да натисне спусъка? "
Хърб Лин акцентира, че самостоятелното оръжие от дълго време е софтуерно постижимо, само че поради вероятните неточности при идентификацията сходна система ще е толкоз ненадеждна, че в действителност би умъртвила прекомерно доста почтени хора.
" Това води до въпроса - по кое време една система ще е задоволително добра, с цел да й се доверим за взимането и изпълняването на такова решение? И това към този момент е политически въпрос. Защото в действителност питаме какъв брой почтени жертви са възможни за постигането на военна цел. И тук, за жалост, има разнообразни визии ".
В Бюлетина на нуклеарните учени, както споменахме, се занимават със заканите за съществуването на човечеството. А тази, която е породила основаването му преди 70 години, инициирано от хора като Алберт Айнщайн и Робърт Опенхаймер, е атомната бомба. Днес е разумно да се запитаме каква е опцията машини да ръководят нуклеарния боеприпас?
" Доколкото знаем, това към момента не се е случило в Западния свят. Т.е. - американските, английски и френски нуклеарни оръжия са под непрекъснат човешки надзор и няма компютърна система, която може да ги изстреля. Руснаците настояват същото, само че са описвали опцията главнокомандващият - президентът, да издаде следната заповед. Ако той бъде погубен при нахлуване против страната, а военните или наследникът му не анулират заповедта навреме, нуклеарно оръжие да бъде изстреляно от автоматизирана система. Целта е врагът да не може да предотврати съветски нуклеарен отговор като обезглави командването. И те са създали такава отбрана.
Смятаме ли това за автоматизирана система? Един ще ти каже - да, тъй като компютърът на процедура взима решението за изстрелването. Друг ще ти каже - не, тъй като човек би трябвало да я включи. Оставям на вас да ми кажете дали в този случай компютър ще изстреля нуклеарно оръжие. В момента за такова изстрелване са нужни кодове за авторизация, които разрешават достъп до някакъв комутатор. Той изпраща електрически сигнал по някакво реле и съвсем сигурно сигналът стига до компютър, който задейства ракетата. Но ние няма да кажем, че компютърът прави нуклеарна офанзива. Въпросът е какъв брой далечен би трябвало да е индивидът от решението, с цел да го назовем автоматизирано ".
Хърб Лин продължава с въпросите - в случай че изкуствен интелект обработва данните от сателитните системи за ранно уведомяване при вражеско ракетно нахлуване, до каква степен е намесен във вероятния отговор? Иначе доктор Лин не познава западни военни, съгласно които е добра концепция да дадеш нуклеарно оръжие на компютър.
По какъв метод Китай и Русия внедряват свои разработки на изкуствен интелект във въоръжението си също е въпрос без задоволително явен отговор. Западът се счита за водач в тази сфера, само че друга тенденция дадоха опциите на китайския езиков модел " DeepSeek ".
" Това в бизнеса се назовава " бързо последване ". Те са употребили западни чипове, копирали са избран способ и реализират положителни резултати за по-малко пари. Не съм чул " DeepSeek " да има по-добри благоприятни условия от западните езикови модели, просто постигането на тези благоприятни условия е било по-евтино. Сега и ние можем да реализираме също толкоз положителни резултати за по-малко пари. Всяка технология следва този път на развиване, в началото е скъпа, след това става по-достъпна ".
Казусът " DeepSeek " ни насочва към най-обоснованите терзания от развиването на изкуствения разсъдък - възходящите благоприятни условия на езикови модели и други приложения, които елементарно основават заблуждаващо наличие и също толкоз елементарно спомагат за светкавичното му разпространяване. И тук следва въпросът за регулациите.
Европейският съюз се опита вземе водещата роля в това поле и предходната година показа общ закон за изкуствения разсъдък, който наложи маркиране на цифрово генерирано наличие. Предишният американски президент Джо Байдън също се опита да наложи някакви правила. Нищо от това досега не е спряло разпространяването на компютърно генерирани подправени вести, фотоси и видеоклипове. Регулациите не могат да тичат дружно с развиването.
Каква е вероятността на виновните за този напредък? Обяснява Дженсън Хуанг - създател и изпълнителен шеф на " NVidia " - компанията, чийто чипове имат съществена роля в напредъка на езиковите модели.
" Поставянето на защитни загради изисква технология, фината конфигурация изисква технология, ценностното образование на изкуствения разсъдък изисква технология, сигурността изисква технология. Причината самолетните полети да са толкоз безвредни е, че автопилотът се преценява с доста на брой системи за сигурност, отчитащи другите рискове. По отношение на изкуствения разсъдък аз нуждая се такива системи да бъдат допустимо най-бързо създадени. Нужно ни е доста по-бързо развиване на технологиите за киберсигурност, които да обезопасяват изкуствения разсъдък и да ни защищават от опциите му ".
И по този начин - не ни регулирайте, а ни позволете да се развиваме, с цел да изработим и защитните механизми. Какво обаче ще се случи през това време?
Тази седмица медиите откриха, че " Алфабет ", компанията-майка на " Google ", която също влага милиарди в AI-разработки, е премахнала от правилата си те да не бъдат употребявани за пострадване на човешки същества.
Започнахме с някогашния заместник-ръководител на Пентагона Мишел Форной и публикацията й за " Форин полиси ". Тя съдържа значим мотив.
" Спирането на американското развиване в областта на изкуствения разсъдък е невероятно - математическите основи са универсални, човешките умения за основаването на AI-модели са необятно търсени и се развиват. Двигателите на това развиване - както човешката съзидателност, по този начин и комерсиалните изгоди - са доста мощни. Да се опитваме да спрем напредъка ще е неточност. Китай работи крепко, с цел да изпревари Съединените щати в изкуствения разсъдък, изключително във военните му приложения. Ако успее, Китай ще има доста по-мощна войска, имаща капацитета да усили честотата и резултатът от нейните интервенции, оттатък американските благоприятни условия за противопоставяне ".
В незначителния миманс на геополитически противодействия и стопански ползи стоят въпросите без отговор на Хърб Лин. Той акцентира, че на всеки американски боен транспортен съд има система за близка защита, при чийто автоматизиран режим компютърът разпознава приближаващи противников ракети и ги отстрани. Натиска спусъка и никой не счита това за проблем. За край ето още една алтернатива:
" Знам, че към мен доближава вражеска танкова група, само че не знам по кое време тъкмо ще съставлява директна опасност. Затова пущам във въздуха оръжия, настроени да разпознаят приближаващи танкове и да стартират да стрелят по тях. Това може да се одобри за автоматизирана система, само че аз ще взема решението да я включа. Ако злоупотребя с нея и я задействам против цивилни цели, то аз ще бъда съден за военно закононарушение. Но добре ли е, че въобще имам софтуерната опция да го направя? "
Това е един от причините на Бюлетина на нуклеарните учени - организация, основана през 1945 година от Айнщайн и негови сътрудници от плана " Манхатън " - да сверят предходната седмица с една секунда напред символичния Часовник на Страшния съд . Той отмерва към този момент единствено 89 секунди до среднощ, или до Апокалипсиса.
Препятствията пред всеунищожителен нуклеарен спор понижават, климатичните промени имат все по-ясни и разрушителни последици, опасността от смъртоносни биологични болести се усилва, предизвестяват още учените в Бюлетина.
Публично изтъкваните опасности от светкавичното софтуерно развиване в последните години най-често са свързани с разпространяването на дезинформация и към момента неразбираемата вероятност скоро да произведем машини със личен разсъдък и воля. Такива към този момент няма, само че компютърно опосредстваните човешки решения са задоволително притеснителни. Особено в случай че изкуствен интелект бъде вграден в оръжейни системи.
Мишел Флорной, някогашен почитан чиновник в министерството на защитата на Съединени американски щати, разказва в публикация за " Форин Полиси " следната проява от 2002 година. Малък безпилотен уред, ръководен от изкуствен интелект, е пуснат от боец във вражеска постройка. Изцяло разчитайки на датчиците си, машината прелита през стаите и праща проект на постройката и точното местонахождение на хората в нея, с цел да насочи изчакващия отряд.
От тази проява са минали повече от 20 години, а технологиите насочват армиите по доста нови способи.
Самата Флорной разказва някои от към този момент внедрените от Пентагона благоприятни условия на изкуствения разсъдък.
" Най-напред имаме доста мъдро взимане на решения за систематизиране на ресурсите и преценка на краткотрайните и дълготрайни резултати от несъмнено решение за бюджета. Втори образец е работата с оперативни данни от оръжейните системи - използваме изкуствения разсъдък, с цел да разберем по кое време избрана част от устройството може да спре да работи. Това усъвършенства парите за поддръжка, отстранява потребността от непотребна профилактика и по едно и също време с това предотвратява пагубни повреди. Това към този момент ни икономисва големи средства.
Третият образец е изпреварващото разузнаване. Използваме изкуствения разсъдък, с цел да проучва огромни количества данни и да разпознае поведенчески модели, в чието проучване да се задълбочим. Това значи, че виждаме признаците за идно събитие. На процедура такова събитие беше нахлуването в Украйна, различен образец са придвижванията на галактически апарати на наши противници. Системата дава повече време за реакция на взимащите решения. Тя не заменя човешката преценка, а я улеснява ".
И още - съгласно Флорной, AI-системи към този момент могат да плануват държанието на противников водачи или пък да подкрепят сигурността на военните компютърни мрежи при хакерски атаки като пренасочат контрола над тях.
Както във всяка друга сфера на живота, компютърът е консултант и опосредства избрани човешки дейности. Но дейностите си остават човешки. Няма аспект към дистопичните картини на стрелящи роботи, най-малко към този момент.
Внедряването на изкуствения разсъдък във въоръжението е една от аргументите от Бюлетина на нуклеарните учени - организация, занимаваща се със заканите за човешкото битие, алегорично да дефинират Апокалипсиса за секунда по-близък ".
Тази седмица разговарях с един от създателите на тази оценка - доктор Хърбърт Лин от университета " Станфорд ", който има десетилетен опит в проучването на връзката сред киберпространството и защитата. Разговорът ни съдържа много въпроси без отговор и няколко констатации.
" В момента изкуствен интелект се употребява в Газа, с цел да предлага цели за военни набези. Говорим за живи хора, които системата разпознава като законна военна цел за израелските сили. Те употребяват огромни бази данни, технологии за различаване на лица и други способи. Какви обаче са критериите, по които някой бива избран за цел? Това, което също буди терзание е дали индивидът, който взима финалното решение, ще одобри сляпо предлагането на машината, смятайки че то е вярно по дифолт ".
Миналата година журналистическо следствие, в което се включи и английският в. " Гардиън ", стигна до информацията, че в Газа тази човешка оторизация лишава приблизително 20 секунди. Списание " Тайм " разказва три приложения, употребявани от израелската войска - едно от тях маркира здания, в които е допустимо да има наличие на Хамас. Второто разпознава членове на групировката, от командири до най-обикновени бойци. Третото наблюдава придвижването на към този момент набелязаните бъдещи жертви, като достигането на мястото, считано за техен дом, е последното удостоверение за самоличността им. Следва удар, а на мястото е доста евентуално да се намира и фамилията на индивида, набелязан за цел от машината.
Контрааргументът на израелската страна е, че разследващи данни за нечие местонахождение се употребяват във военни спорове доста преди този в Газа, както и че новите системи основават преценката си на доста повече данни и потвърждения, в сравнение с са били нужни за военна бомбардировка в предишното. Но израелците не отхвърлят, че човешката инспекция на машинната преценка лишава 20 секунди. Удари по жилищни постройки, в които се намират членове на " Хамас, " са най-голямата причина за големите цивилни жертви в линията.
Жестокостта на описаната обстановка се предпоставя и от гъстотата на популацията на дребна повърхност там. При по-малки несъгласия, изкуствен интелект се употребява за набелязване на цели и в Украйна. На разположение на силите на Киев са продуктите на американската компания " Палантир ", чието лицево различаване употребява данни от дронове, спътници, класифицирана информация и, несъмнено, споделеното от всички нас в интернет. Освен това те оказват помощ за засичането на маневри на съветска военна техника.
Притеснителна е вероятната последваща софтуерна стъпка:
" Използването на компютри за различаване на заплаха към този момент е довело до това машината да предлага и дефинира цели. Защо напряко не й дадем да натисне спусъка? "
Хърб Лин акцентира, че самостоятелното оръжие от дълго време е софтуерно постижимо, само че поради вероятните неточности при идентификацията сходна система ще е толкоз ненадеждна, че в действителност би умъртвила прекомерно доста почтени хора.
" Това води до въпроса - по кое време една система ще е задоволително добра, с цел да й се доверим за взимането и изпълняването на такова решение? И това към този момент е политически въпрос. Защото в действителност питаме какъв брой почтени жертви са възможни за постигането на военна цел. И тук, за жалост, има разнообразни визии ".
В Бюлетина на нуклеарните учени, както споменахме, се занимават със заканите за съществуването на човечеството. А тази, която е породила основаването му преди 70 години, инициирано от хора като Алберт Айнщайн и Робърт Опенхаймер, е атомната бомба. Днес е разумно да се запитаме каква е опцията машини да ръководят нуклеарния боеприпас?
" Доколкото знаем, това към момента не се е случило в Западния свят. Т.е. - американските, английски и френски нуклеарни оръжия са под непрекъснат човешки надзор и няма компютърна система, която може да ги изстреля. Руснаците настояват същото, само че са описвали опцията главнокомандващият - президентът, да издаде следната заповед. Ако той бъде погубен при нахлуване против страната, а военните или наследникът му не анулират заповедта навреме, нуклеарно оръжие да бъде изстреляно от автоматизирана система. Целта е врагът да не може да предотврати съветски нуклеарен отговор като обезглави командването. И те са създали такава отбрана.
Смятаме ли това за автоматизирана система? Един ще ти каже - да, тъй като компютърът на процедура взима решението за изстрелването. Друг ще ти каже - не, тъй като човек би трябвало да я включи. Оставям на вас да ми кажете дали в този случай компютър ще изстреля нуклеарно оръжие. В момента за такова изстрелване са нужни кодове за авторизация, които разрешават достъп до някакъв комутатор. Той изпраща електрически сигнал по някакво реле и съвсем сигурно сигналът стига до компютър, който задейства ракетата. Но ние няма да кажем, че компютърът прави нуклеарна офанзива. Въпросът е какъв брой далечен би трябвало да е индивидът от решението, с цел да го назовем автоматизирано ".
Хърб Лин продължава с въпросите - в случай че изкуствен интелект обработва данните от сателитните системи за ранно уведомяване при вражеско ракетно нахлуване, до каква степен е намесен във вероятния отговор? Иначе доктор Лин не познава западни военни, съгласно които е добра концепция да дадеш нуклеарно оръжие на компютър.
По какъв метод Китай и Русия внедряват свои разработки на изкуствен интелект във въоръжението си също е въпрос без задоволително явен отговор. Западът се счита за водач в тази сфера, само че друга тенденция дадоха опциите на китайския езиков модел " DeepSeek ".
" Това в бизнеса се назовава " бързо последване ". Те са употребили западни чипове, копирали са избран способ и реализират положителни резултати за по-малко пари. Не съм чул " DeepSeek " да има по-добри благоприятни условия от западните езикови модели, просто постигането на тези благоприятни условия е било по-евтино. Сега и ние можем да реализираме също толкоз положителни резултати за по-малко пари. Всяка технология следва този път на развиване, в началото е скъпа, след това става по-достъпна ".
Казусът " DeepSeek " ни насочва към най-обоснованите терзания от развиването на изкуствения разсъдък - възходящите благоприятни условия на езикови модели и други приложения, които елементарно основават заблуждаващо наличие и също толкоз елементарно спомагат за светкавичното му разпространяване. И тук следва въпросът за регулациите.
Европейският съюз се опита вземе водещата роля в това поле и предходната година показа общ закон за изкуствения разсъдък, който наложи маркиране на цифрово генерирано наличие. Предишният американски президент Джо Байдън също се опита да наложи някакви правила. Нищо от това досега не е спряло разпространяването на компютърно генерирани подправени вести, фотоси и видеоклипове. Регулациите не могат да тичат дружно с развиването.
Каква е вероятността на виновните за този напредък? Обяснява Дженсън Хуанг - създател и изпълнителен шеф на " NVidia " - компанията, чийто чипове имат съществена роля в напредъка на езиковите модели.
" Поставянето на защитни загради изисква технология, фината конфигурация изисква технология, ценностното образование на изкуствения разсъдък изисква технология, сигурността изисква технология. Причината самолетните полети да са толкоз безвредни е, че автопилотът се преценява с доста на брой системи за сигурност, отчитащи другите рискове. По отношение на изкуствения разсъдък аз нуждая се такива системи да бъдат допустимо най-бързо създадени. Нужно ни е доста по-бързо развиване на технологиите за киберсигурност, които да обезопасяват изкуствения разсъдък и да ни защищават от опциите му ".
И по този начин - не ни регулирайте, а ни позволете да се развиваме, с цел да изработим и защитните механизми. Какво обаче ще се случи през това време?
Тази седмица медиите откриха, че " Алфабет ", компанията-майка на " Google ", която също влага милиарди в AI-разработки, е премахнала от правилата си те да не бъдат употребявани за пострадване на човешки същества.
Започнахме с някогашния заместник-ръководител на Пентагона Мишел Форной и публикацията й за " Форин полиси ". Тя съдържа значим мотив.
" Спирането на американското развиване в областта на изкуствения разсъдък е невероятно - математическите основи са универсални, човешките умения за основаването на AI-модели са необятно търсени и се развиват. Двигателите на това развиване - както човешката съзидателност, по този начин и комерсиалните изгоди - са доста мощни. Да се опитваме да спрем напредъка ще е неточност. Китай работи крепко, с цел да изпревари Съединените щати в изкуствения разсъдък, изключително във военните му приложения. Ако успее, Китай ще има доста по-мощна войска, имаща капацитета да усили честотата и резултатът от нейните интервенции, оттатък американските благоприятни условия за противопоставяне ".
В незначителния миманс на геополитически противодействия и стопански ползи стоят въпросите без отговор на Хърб Лин. Той акцентира, че на всеки американски боен транспортен съд има система за близка защита, при чийто автоматизиран режим компютърът разпознава приближаващи противников ракети и ги отстрани. Натиска спусъка и никой не счита това за проблем. За край ето още една алтернатива:
" Знам, че към мен доближава вражеска танкова група, само че не знам по кое време тъкмо ще съставлява директна опасност. Затова пущам във въздуха оръжия, настроени да разпознаят приближаващи танкове и да стартират да стрелят по тях. Това може да се одобри за автоматизирана система, само че аз ще взема решението да я включа. Ако злоупотребя с нея и я задействам против цивилни цели, то аз ще бъда съден за военно закононарушение. Но добре ли е, че въобще имам софтуерната опция да го направя? "
Източник: novinite.bg


КОМЕНТАРИ