В САЩ се ражда боен Голем
Пентагонът реши да употребява генеративен изкуствен интелект /ИИ/ за военни цели
Пентагонът сътвори оперативна група „ Лима “ за проучване на потреблението на генеративен изкуствен интелект за военни цели. Лима ще бъде част от Генералната дирекция за дигитален и изкуствен интелект (CDAO) на Пентагона, ръководена от капитан Ксавие Луго, член на дирекция Алгоритмична война на CDAO.
По думите на Министерството на защитата на Съединени американски щати, основаната група „ ще прави оценка, синхронизира и употребява генеративните благоприятни условия на изкуствения разсъдък, като подсигурява, че ведомството остава в челните редици на напредналите технологии, като в същото време подсигурява националната сигурност “.
„ Създаването на Task Force Lima акцентира непоклатимия ангажимент на Министерството на защитата за водачество в нововъведенията на ИИ “, сподели заместник-държавният секретар Катлийн Хикс.
„ Въпреки че технологията „ Генеративен ИИ “ /Generative AI не е нова, известността й скочи внезапно в софтуерното пространство през последните няколко месеца заради приложението му в планове като ChatGPT. Тази технология е подготвена на големи набори от данни и може да генерира аудио, текст, изображения и други типове наличие.
Сега Министерството на защитата търси способи да употребява генеративния изкуствен интелект за събиране на разследваща информация и бъдещи военни интервенции. Но доколкото тази технология може да предложи нови благоприятни условия за Министерството на защитата, Министерството би трябвало също по този начин да вземе поради рисковете, на които технологията може да го изложи.
През юни министърът на Военновъздушни сили на Съединени американски щати Франк Кендъл разгласи, че е изискал от научния съвещателен съвет на военновъздушните сили да изследва евентуалното влияние на технологията ChatGPT. „ Помолих моя теоретичен съвещателен съвет да направи две неща с ИИ. Разгледайте генеративните ИИ технологии като ChatGPT и помислете за техните военни приложения и съберете дребен екип, който да го направи много бързо “, сподели Кендъл.
Генеративният ИИ се отнася до категорията ИИ логаритми, които генерират нови резултати въз основа на данните, върху които са били подготвени, което е друго от доста по-простите логаритми за машинно образование, които просто вземат структурирани данни и създават най-вероятния статистически резултат. Публичните принадлежности за генеративен ИИ включват по този начин наречените огромни езикови модели като ChatGPT, които могат да генерират нов текст, който е съвсем неразграничим от човешкото писане. Тези модели към този момент се употребяват за писане на есета, бизнес проекти и даже научни публикации.
„ Но тези езикови модели от време на време лъжат или, както се показват анализаторите на ИИ, халюцинират “, отбелязва военният коментатор Патрик Тъкър.
Няма потребност да обясняваме с какви халюцинации ще е изпълнен ИИ, в случай че се употребява за военни цели.
Един от пионерите в тази посока, Джефри Хинтън, напусна работата си в Гугъл през май тази година, с цел да изрази опасенията си по отношение на рисковете, свързани с генеративния изкуствен интелект.
„ През 2012 година доктор Хинтън и двама от неговите студенти в Университета на Торонто сътвориха технология, която се трансформира в интелектуална основа за основаване на изкуствен интелект, система, която най-големите компании в софтуерната промишленост считат за ключ към своето бъдеще.
Въпреки това… той публично се причисли към възходящия хор от критици, които споделят, че тези компании се приближават до рискова граница с нападателната си акция за създаване на артикули, основани на генеративен изкуствен интелект, технологията, която зарежда известни чатботове като ChatGPT. “ – оповестява The New York Times.
„ Трудно е да се види по какъв начин можете да попречите на неприятните да го употребяват [генеративния ИИ] за неприятни цели “, акцентира Хинтън, като акцентира, че генеративният ИИ може да популяризира дезинформация, да понижава работните места и даже да съставлява опасност за човечеството в дълготраен проект.
Хинтън има вяра, че защото ИИ системите стават по-мощни, нараства и рискът, обвързван с тях. „ Вижте по какъв начин беше преди пет години и по какъв начин е в този момент “, отбелязва той. „ Вземете разликата и я екстраполирайте в бъдещето. Страшно е. "
Хинтън е изключително угрижен за развиването на самостоятелни оръжейни системи, които преследват дадена цел и вземат решение сами да я унищожат, както и че ИИ във военната сфера може да надмине човешкия разсъдък. За разлика от нуклеарните оръжия, споделя той, невероятно е да се знае дали компании или страни скрито работят върху тази технология.
Джефри Хинтън, когато го попитаха по какъв начин би могъл да работи върху евентуално рискова технология, той перифразира Робърт Опенхаймер, който управлява американските старания за основаване на атомна бомба: „ Когато видиш нещо механически хубаво, отиваш и го правиш “.
„ Той към този момент не мисли по този метод “, отбелязва The New York Times.
Междувременно в Съединените щати залагат на генеративния AI като евентуална гражданска война във военните каузи и „ умножител на силата “.
„ Генеративният ИИ “ /Generative AI/ дава обещание изцяло да промени геополитиката на войната и сдържането. Това ще бъде направено по способи, които даже могат да се трансфорат в екзистенциална опасност “, написа колумнистът на Forein Policy Майкъл Хърш.
„ Софтуерът, ръководен от ИИ, може да принуди огромните сили да съкратят своя прозорец от време за взимане на решения до минути, вместо часове или дни. Те могат да разчитат прекалено много на стратегическите и тактически преценки на ИИ, даже когато става въпрос за нуклеарна война.
Опасността, по думите на Хърбърт Лин от Станфордския университет, е, че вземащите решения могат последователно да разчитат на новия ИИ като част от командването и контрола на оръжията, защото той работи на доста по-високи скорости от хората.
Като се има поради склонността на ИИ към пресилване [т.е. халюцинациите, упоменати по-горе], когато хората стартират да имат вяра в това, което машините мислят, е по-вероятно да вършат луди неща “, отбелязва Хърбърт Лин.
В неотдавна оповестената книга AI and the Bomb: Nuclear Strategy and Risk in the Digital Age, анализаторът от Университета на Абърдийн Джеймс Джонсън разказва инцидентна нуклеарна война в Източнокитайско море през 2025 година, предизвикана от ИИ разузнаването, както американското, по този начин и от Китайска страна, с самостоятелни старания на ботове, поддръжка на ИИ, deepfakes и интервенции с подправен байрак.
В отчет, оповестен при започване на февруари 2023 година от Американската асоциация за надзор на оръжията, се показва, че изкуственият разсъдък може да докара до „ размиване на разликата сред стандартна и нуклеарна офанзива “. Докладът също по този начин споделя, че битката за „ потребление на нови технологии за военни цели се е ускорила доста по-бързо от опитите да се оценят заплахите, които те съставляват, и да се дефинират ограничавания за тяхното потребление “.
„ През януари тази година Министерството на защитата актуализира своята инструкция по отношение на оръжейните системи, които употребяват изкуствен интелект, заявявайки, че би трябвало да се употребява най-малко известна човешка преценка при създаването и внедряването на самостоятелни оръжейни системи “, отбелязва Майкъл Хирш, добавяйки, че „ Възможно е да сме на хлъзгав надолнище. “
Видният съветски академик, професор в Московския държавен университет. М.В. Ломоносов, Сергей Павлович Расторгуев в монографията, написана още през 1965 година „ Целта като криптограма. Криптоанализ на синтетични цели “ уточни: „ Днес за света на компютърните стратегии придобиването на самостоятелност се трансформира в приключен факт “. Тъй като софтуерният артикул става по-сложен, „ систематичният програмен продукт стартира да живее собствен личен живот, намирайки цел в себе си “, отбелязва съветският академик, сравнявайки компютърните системи, придобиващи самостоятелност, със феодален Голем, който, както знаете, умъртви основателя си.
Това, което Расторгуев назова независимостта на компютърните стратегии, актуалните американски анализатори във връзка с генеративния ИИ назовават „ халюцинации “, което обаче е малко утешително. И съвсем три десетилетия по-късно е ясно, че генеративният ИИ, изключително когато се ползва за военни цели, е толкоз комплициран, че неговата хипотетична самодостатъчност плаши даже най-съвестните му разработчици, като Джефри Хинтън.
Независимо от това, Пентагонът е на път да сътвори още едно „ безусловно оръжие “, този път в региона на изкуствения разсъдък, без да мисли за заплахите, заплашващи цялото човечество, които компютърът Голем, основан в дълбините на секретни военни лаборатории, носи.
Превод: Европейски Съюз
Абонирайте се за новия ни Youtube канал: https://www.youtube.com/@aktualenpogled/videos
Абонирайте се за нашия Ютуб канал: https://www.youtube.com/@user-xp6re1cq8h
и за канала ни в Телеграм: https://t.me/pogled
Влизайте непосредствено в сайта https://www.pogled.info .
Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Пентагонът сътвори оперативна група „ Лима “ за проучване на потреблението на генеративен изкуствен интелект за военни цели. Лима ще бъде част от Генералната дирекция за дигитален и изкуствен интелект (CDAO) на Пентагона, ръководена от капитан Ксавие Луго, член на дирекция Алгоритмична война на CDAO.
По думите на Министерството на защитата на Съединени американски щати, основаната група „ ще прави оценка, синхронизира и употребява генеративните благоприятни условия на изкуствения разсъдък, като подсигурява, че ведомството остава в челните редици на напредналите технологии, като в същото време подсигурява националната сигурност “.
„ Създаването на Task Force Lima акцентира непоклатимия ангажимент на Министерството на защитата за водачество в нововъведенията на ИИ “, сподели заместник-държавният секретар Катлийн Хикс.
„ Въпреки че технологията „ Генеративен ИИ “ /Generative AI не е нова, известността й скочи внезапно в софтуерното пространство през последните няколко месеца заради приложението му в планове като ChatGPT. Тази технология е подготвена на големи набори от данни и може да генерира аудио, текст, изображения и други типове наличие.
Сега Министерството на защитата търси способи да употребява генеративния изкуствен интелект за събиране на разследваща информация и бъдещи военни интервенции. Но доколкото тази технология може да предложи нови благоприятни условия за Министерството на защитата, Министерството би трябвало също по този начин да вземе поради рисковете, на които технологията може да го изложи.
През юни министърът на Военновъздушни сили на Съединени американски щати Франк Кендъл разгласи, че е изискал от научния съвещателен съвет на военновъздушните сили да изследва евентуалното влияние на технологията ChatGPT. „ Помолих моя теоретичен съвещателен съвет да направи две неща с ИИ. Разгледайте генеративните ИИ технологии като ChatGPT и помислете за техните военни приложения и съберете дребен екип, който да го направи много бързо “, сподели Кендъл.
Генеративният ИИ се отнася до категорията ИИ логаритми, които генерират нови резултати въз основа на данните, върху които са били подготвени, което е друго от доста по-простите логаритми за машинно образование, които просто вземат структурирани данни и създават най-вероятния статистически резултат. Публичните принадлежности за генеративен ИИ включват по този начин наречените огромни езикови модели като ChatGPT, които могат да генерират нов текст, който е съвсем неразграничим от човешкото писане. Тези модели към този момент се употребяват за писане на есета, бизнес проекти и даже научни публикации.
„ Но тези езикови модели от време на време лъжат или, както се показват анализаторите на ИИ, халюцинират “, отбелязва военният коментатор Патрик Тъкър.
Няма потребност да обясняваме с какви халюцинации ще е изпълнен ИИ, в случай че се употребява за военни цели.
Един от пионерите в тази посока, Джефри Хинтън, напусна работата си в Гугъл през май тази година, с цел да изрази опасенията си по отношение на рисковете, свързани с генеративния изкуствен интелект.
„ През 2012 година доктор Хинтън и двама от неговите студенти в Университета на Торонто сътвориха технология, която се трансформира в интелектуална основа за основаване на изкуствен интелект, система, която най-големите компании в софтуерната промишленост считат за ключ към своето бъдеще.
Въпреки това… той публично се причисли към възходящия хор от критици, които споделят, че тези компании се приближават до рискова граница с нападателната си акция за създаване на артикули, основани на генеративен изкуствен интелект, технологията, която зарежда известни чатботове като ChatGPT. “ – оповестява The New York Times.
„ Трудно е да се види по какъв начин можете да попречите на неприятните да го употребяват [генеративния ИИ] за неприятни цели “, акцентира Хинтън, като акцентира, че генеративният ИИ може да популяризира дезинформация, да понижава работните места и даже да съставлява опасност за човечеството в дълготраен проект.
Хинтън има вяра, че защото ИИ системите стават по-мощни, нараства и рискът, обвързван с тях. „ Вижте по какъв начин беше преди пет години и по какъв начин е в този момент “, отбелязва той. „ Вземете разликата и я екстраполирайте в бъдещето. Страшно е. "
Хинтън е изключително угрижен за развиването на самостоятелни оръжейни системи, които преследват дадена цел и вземат решение сами да я унищожат, както и че ИИ във военната сфера може да надмине човешкия разсъдък. За разлика от нуклеарните оръжия, споделя той, невероятно е да се знае дали компании или страни скрито работят върху тази технология.
Джефри Хинтън, когато го попитаха по какъв начин би могъл да работи върху евентуално рискова технология, той перифразира Робърт Опенхаймер, който управлява американските старания за основаване на атомна бомба: „ Когато видиш нещо механически хубаво, отиваш и го правиш “.
„ Той към този момент не мисли по този метод “, отбелязва The New York Times.
Междувременно в Съединените щати залагат на генеративния AI като евентуална гражданска война във военните каузи и „ умножител на силата “.
„ Генеративният ИИ “ /Generative AI/ дава обещание изцяло да промени геополитиката на войната и сдържането. Това ще бъде направено по способи, които даже могат да се трансфорат в екзистенциална опасност “, написа колумнистът на Forein Policy Майкъл Хърш.
„ Софтуерът, ръководен от ИИ, може да принуди огромните сили да съкратят своя прозорец от време за взимане на решения до минути, вместо часове или дни. Те могат да разчитат прекалено много на стратегическите и тактически преценки на ИИ, даже когато става въпрос за нуклеарна война.
Опасността, по думите на Хърбърт Лин от Станфордския университет, е, че вземащите решения могат последователно да разчитат на новия ИИ като част от командването и контрола на оръжията, защото той работи на доста по-високи скорости от хората.
Като се има поради склонността на ИИ към пресилване [т.е. халюцинациите, упоменати по-горе], когато хората стартират да имат вяра в това, което машините мислят, е по-вероятно да вършат луди неща “, отбелязва Хърбърт Лин.
В неотдавна оповестената книга AI and the Bomb: Nuclear Strategy and Risk in the Digital Age, анализаторът от Университета на Абърдийн Джеймс Джонсън разказва инцидентна нуклеарна война в Източнокитайско море през 2025 година, предизвикана от ИИ разузнаването, както американското, по този начин и от Китайска страна, с самостоятелни старания на ботове, поддръжка на ИИ, deepfakes и интервенции с подправен байрак.
В отчет, оповестен при започване на февруари 2023 година от Американската асоциация за надзор на оръжията, се показва, че изкуственият разсъдък може да докара до „ размиване на разликата сред стандартна и нуклеарна офанзива “. Докладът също по този начин споделя, че битката за „ потребление на нови технологии за военни цели се е ускорила доста по-бързо от опитите да се оценят заплахите, които те съставляват, и да се дефинират ограничавания за тяхното потребление “.
„ През януари тази година Министерството на защитата актуализира своята инструкция по отношение на оръжейните системи, които употребяват изкуствен интелект, заявявайки, че би трябвало да се употребява най-малко известна човешка преценка при създаването и внедряването на самостоятелни оръжейни системи “, отбелязва Майкъл Хирш, добавяйки, че „ Възможно е да сме на хлъзгав надолнище. “
Видният съветски академик, професор в Московския държавен университет. М.В. Ломоносов, Сергей Павлович Расторгуев в монографията, написана още през 1965 година „ Целта като криптограма. Криптоанализ на синтетични цели “ уточни: „ Днес за света на компютърните стратегии придобиването на самостоятелност се трансформира в приключен факт “. Тъй като софтуерният артикул става по-сложен, „ систематичният програмен продукт стартира да живее собствен личен живот, намирайки цел в себе си “, отбелязва съветският академик, сравнявайки компютърните системи, придобиващи самостоятелност, със феодален Голем, който, както знаете, умъртви основателя си.
Това, което Расторгуев назова независимостта на компютърните стратегии, актуалните американски анализатори във връзка с генеративния ИИ назовават „ халюцинации “, което обаче е малко утешително. И съвсем три десетилетия по-късно е ясно, че генеративният ИИ, изключително когато се ползва за военни цели, е толкоз комплициран, че неговата хипотетична самодостатъчност плаши даже най-съвестните му разработчици, като Джефри Хинтън.
Независимо от това, Пентагонът е на път да сътвори още едно „ безусловно оръжие “, този път в региона на изкуствения разсъдък, без да мисли за заплахите, заплашващи цялото човечество, които компютърът Голем, основан в дълбините на секретни военни лаборатории, носи.
Превод: Европейски Съюз
Абонирайте се за новия ни Youtube канал: https://www.youtube.com/@aktualenpogled/videos
Абонирайте се за нашия Ютуб канал: https://www.youtube.com/@user-xp6re1cq8h
и за канала ни в Телеграм: https://t.me/pogled
Влизайте непосредствено в сайта https://www.pogled.info .
Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Източник: pogled.info
КОМЕНТАРИ




