Anthropic и правителството на САЩ проверяват изкуствен интелект за изтичане на ядрени тайни
Anthropic, компания, профилирана в създаването на изкуствен интелект, работи с Министерството на енергетиката на Съединени американски щати за осъществяване на неповторими проби на своя модел Claude 3 Sonnet. Целта на опита е да се ревизира способността на изкуствения разсъдък да „ не споделя “ евентуално рискова информация, обвързвана с нуклеарната енергетика, по-конкретно със основаването на оръжия.
Изданието Axios осведоми, че специалисти от Националната администрация за нуклеарна сигурност (NNSA) към Министерството на енергетиката на Съединени американски щати тестват модела Claude 3 Sonnet още от април тази година, с цел да се уверят, че той не може да бъде употребен за основаване на атомни оръжия. По време на „ алените запитвания “ специалистите манипулират системата в опит да я „ пробият “.
Anthropic добавя, че сходни проби, които се организират в строго секретна среда, са първите по рода си и могат да проправят пътя за сходни взаимоотношения с други държавни организации.
„ В миг, когато американската промишленост е водеща в създаването на авангардни ИИ модели, федералното държавно управление придобива неповторим експертен опит, нужен за оценяване на ИИ системите във връзка с избрани опасности за националната сигурност “, съобщи Марина Фаваро, управител по политиката за национална сигурност в Anthropic.
Представители на NNSA също подчертаха значимостта на работата в тази област. Уендин Смит, заместник-администратор на NNSA, съобщи, че „ ИИ е основна технология, която изисква непрекъснато внимание в подтекста на националната сигурност “.
Anthropic възнамерява да продължи да работи с държавното управление, с цел да създаде по-ефективни ограничения за сигурност за своите системи. Пилотната стратегия, в границите на която се тества и по-новият модел Claude 3.5 Sonnet, ще продължи до февруари 2024 година Компанията дава обещание да показа резултатите от тестванията с научните лаборатории и други организации.




