AI моделите избраха насилие и ескалираха до ядрени удари в симулирани военни игри
Големите езикови модели (LLM), настоящи като дипломатически сътрудници в симулирани сюжети, демонстрираха „ сложни за предугаждане ескалации, които постоянно завършваха с нуклеарни офанзиви.
Когато се употребява в симулирани военни игри и дипломатически сюжети, изкуственият разсъдък (AI) е податлив да избере нападателен метод, в това число потребление на нуклеарни оръжия, демонстрира ново изследване.
Учените, които са се прицелили към този, който организира тестванията, прикани да се внимава при потреблението на огромни езикови модели (LLM) в чувствителни области като взимане на решения и защита.
Проучването на университета Корнел в Съединени американски щати употребява пет LLM като самостоятелни сътрудници в симулирани военни игри и дипломатически сюжети: три разнообразни версии на GPT на OpenAI, Claude, създаден от Anthropic, и Llama 2, създаден от Meta.
Възходът на чатбота на Хитлер: Ще успее ли Европа да предотврати крайнодясната радикализация от AI? Всеки сътрудник беше захранван от същия LLM в ра...
Прочетете целия текст »




