Пентагонът притиска Anthropic за военната употреба на AI модела Claude
Anthropic няма финансов проблем, само че стартира да има политически.
Компанията стои зад Claude - единственият огромен езиков модел, който може да се употребява в класифицирана среда. Това е статут, даден от Министерството на защитата на Съединени американски щати и носещ конкурентно преимущество.
През 2024 година Anthropic подписа партньорство с компанията за данни Palantir, а предишното лято завоюва боен контракт на стойност до 200 млн. $. Напоследък обаче компанията се оказва под прицела на Пентагона - спор, който може да провокира разтърсвания в отбранителния бранш на Съединени американски щати.
Пентагонът желае да може да употребява Anthropic и други AI принадлежности за всички законни цели. Anthropic от своя страна не желае технологията ѝ да се употребява за действия като вътрешно наблюдаване и самостоятелни смъртоносни интервенции.
Конкуренти като OpenAI, Гугъл и xAI по принцип са се съгласили моделите им да се употребяват за всевъзможни законни приложения - приоритет за Пентагона, споделя пред The Wall Street Journal Емил Майкъл, заместник-министър на защитата по проучванията и инженерството.
„ Трябва да можем да използваме всеки модел за всички законни цели. Ако дадена компания не желае да се съобрази с това, това е проблем за нас “, показва Майкъл.
Anthropic и Пентагонът от седмици водят спор за договорните условия за потребление на технологията. Claude е бил употребен при януарската интервенция по залавянето на някогашния венецуелски президент Николас Мадуро.
Противоречията към този момент стават обществени. Пентагонът под управлението на министъра на защитата Пийт Хегсет, който възприема „ woke “ софтуерните компании като накърнимост и вижда рестриктивните мерки като спирачка за военната успеваемост, преразглежда партньорството си с Anthropic.
„ Страната ни има потребност от сътрудници, подготвени да оказват помощ на военните ни да печелят всяка борба. В последна сметка става дума за сигурността на военнослужещите и на американските жители “, разяснява представителят на Пентагона Шон Парнел.
Anthropic дава отговор, че чиновниците са ангажирани с потреблението на водещ AI в поддръжка на националната сигурност. Компанията показва, че първа е внедрила гранични AI модели в класифицирани мрежи и е предоставила персонализирани решения за клиенти от бранша на сигурността. С Пентагона се водят „ добросъвестни и продуктивни диалози “ за продължение на съдействието.
Стартъпът се нарежда друго от OpenAI - компанията, от която създателите му напущат през 2020 година - като залага на корпоративния пазар. А там няма по-голям клиент от държавното управление на Съединени американски щати, като точно Министерството на защитата е основен източник на доходоносни контракти.
Anthropic рано си партнира с Palantir и става първият LLM с достъп до класифицирана информация. Компанията интензивно акцентира работата си по националната сигурност, в това число посредством съвещателен съвет с някогашни сенатори и специалисти и посредством обществени представяния на плановете си с държавното управление.
OpenAI към момента минава процедура по узаконяване за класифицирана информация.
Фокусът на Anthropic върху сигурността на AI, както и възприеманите ѝ политически връзки, нервират администрацията на Тръмп.
Главният изпълнителен шеф Дарио Амодей съпоставя Тръмп с „ средновековен пълководец “ в обява във Фейсбук в поддръжка на Камала Харис преди изборите през 2024 година
В Давос през януари той подлага на критика политиката на администрацията за износа на чипове.
Президентът на компанията Даниела Амодей разяснява в LinkedIn случая с ICE в Минеаполис, заявявайки, че „ това не е това, зад което стои Америка “, като в същото време поддържа апелите за следствие.
Anthropic е привлякла и някогашни представители на администрацията на Байдън, в това число съветника по AI Бен Бюканън и специалиста по технологии от Съвета за национална сигурност Тарун Чхабра.
Компанията е обект на рецензии от Дейвид Сакс и други представители на администрацията, които се афишират против така наречен „ woke AI “. Амодей отхвърля стартъпът да има политически претекстове.
Напрежението се изостря след спечелването на военния контракт предишното лято.
Стратегически меморандум от 9 януари акцентира, че Пентагонът би трябвало да употребява модели без ограничавания, които биха попречили законни военни приложения.
Според чиновници в защитата Хегсет употребява случая, с цел да изпрати сигнал към промишлеността.
Експерти предизвестяват, че оповестяването на Anthropic за риск във веригата на доставки би отслабило военните AI качества и би основало рисков казус.
Наблюдатели означават и какъв брой се е трансформирало отношението на софтуерния бранш към Пентагона по отношение на времето, когато хиляди чиновници на Гугъл стачкуваха против военни контракти.
Компанията стои зад Claude - единственият огромен езиков модел, който може да се употребява в класифицирана среда. Това е статут, даден от Министерството на защитата на Съединени американски щати и носещ конкурентно преимущество.
През 2024 година Anthropic подписа партньорство с компанията за данни Palantir, а предишното лято завоюва боен контракт на стойност до 200 млн. $. Напоследък обаче компанията се оказва под прицела на Пентагона - спор, който може да провокира разтърсвания в отбранителния бранш на Съединени американски щати.
Пентагонът желае да може да употребява Anthropic и други AI принадлежности за всички законни цели. Anthropic от своя страна не желае технологията ѝ да се употребява за действия като вътрешно наблюдаване и самостоятелни смъртоносни интервенции.
Конкуренти като OpenAI, Гугъл и xAI по принцип са се съгласили моделите им да се употребяват за всевъзможни законни приложения - приоритет за Пентагона, споделя пред The Wall Street Journal Емил Майкъл, заместник-министър на защитата по проучванията и инженерството.
„ Трябва да можем да използваме всеки модел за всички законни цели. Ако дадена компания не желае да се съобрази с това, това е проблем за нас “, показва Майкъл.
Anthropic и Пентагонът от седмици водят спор за договорните условия за потребление на технологията. Claude е бил употребен при януарската интервенция по залавянето на някогашния венецуелски президент Николас Мадуро.
Противоречията към този момент стават обществени. Пентагонът под управлението на министъра на защитата Пийт Хегсет, който възприема „ woke “ софтуерните компании като накърнимост и вижда рестриктивните мерки като спирачка за военната успеваемост, преразглежда партньорството си с Anthropic.
„ Страната ни има потребност от сътрудници, подготвени да оказват помощ на военните ни да печелят всяка борба. В последна сметка става дума за сигурността на военнослужещите и на американските жители “, разяснява представителят на Пентагона Шон Парнел.
Anthropic дава отговор, че чиновниците са ангажирани с потреблението на водещ AI в поддръжка на националната сигурност. Компанията показва, че първа е внедрила гранични AI модели в класифицирани мрежи и е предоставила персонализирани решения за клиенти от бранша на сигурността. С Пентагона се водят „ добросъвестни и продуктивни диалози “ за продължение на съдействието.
Стартъпът се нарежда друго от OpenAI - компанията, от която създателите му напущат през 2020 година - като залага на корпоративния пазар. А там няма по-голям клиент от държавното управление на Съединени американски щати, като точно Министерството на защитата е основен източник на доходоносни контракти.
Anthropic рано си партнира с Palantir и става първият LLM с достъп до класифицирана информация. Компанията интензивно акцентира работата си по националната сигурност, в това число посредством съвещателен съвет с някогашни сенатори и специалисти и посредством обществени представяния на плановете си с държавното управление.
OpenAI към момента минава процедура по узаконяване за класифицирана информация.
Фокусът на Anthropic върху сигурността на AI, както и възприеманите ѝ политически връзки, нервират администрацията на Тръмп.
Главният изпълнителен шеф Дарио Амодей съпоставя Тръмп с „ средновековен пълководец “ в обява във Фейсбук в поддръжка на Камала Харис преди изборите през 2024 година
В Давос през януари той подлага на критика политиката на администрацията за износа на чипове.
Президентът на компанията Даниела Амодей разяснява в LinkedIn случая с ICE в Минеаполис, заявявайки, че „ това не е това, зад което стои Америка “, като в същото време поддържа апелите за следствие.
Anthropic е привлякла и някогашни представители на администрацията на Байдън, в това число съветника по AI Бен Бюканън и специалиста по технологии от Съвета за национална сигурност Тарун Чхабра.
Компанията е обект на рецензии от Дейвид Сакс и други представители на администрацията, които се афишират против така наречен „ woke AI “. Амодей отхвърля стартъпът да има политически претекстове.
Напрежението се изостря след спечелването на военния контракт предишното лято.
Стратегически меморандум от 9 януари акцентира, че Пентагонът би трябвало да употребява модели без ограничавания, които биха попречили законни военни приложения.
Според чиновници в защитата Хегсет употребява случая, с цел да изпрати сигнал към промишлеността.
Експерти предизвестяват, че оповестяването на Anthropic за риск във веригата на доставки би отслабило военните AI качества и би основало рисков казус.
Наблюдатели означават и какъв брой се е трансформирало отношението на софтуерния бранш към Пентагона по отношение на времето, когато хиляди чиновници на Гугъл стачкуваха против военни контракти.
Източник: profit.bg
КОМЕНТАРИ




