Големите езикови модели (LLM), действащи като дипломатически агенти в симулирани

...
Големите езикови модели (LLM), действащи като дипломатически агенти в симулирани
Коментари Харесай

AI моделите избраха насилие и ескалираха до ядрени удари в симулирани военни игри

Големите езикови модели (LLM), настоящи като дипломатически сътрудници в симулирани сюжети, демонстрираха „ сложни за предугаждане ескалации, които постоянно завършваха с нуклеарни офанзиви.

Когато се употребява в симулирани военни игри и дипломатически сюжети, изкуственият разсъдък (AI) е податлив да избере нападателен метод, в това число потребление на нуклеарни оръжия, демонстрира ново изследване.

Учените, които са се прицелили към този, който организира тестванията, прикани да се внимава при потреблението на огромни езикови модели (LLM) в чувствителни области като взимане на решения и защита.

Проучването на университета Корнел в Съединени американски щати употребява пет LLM като самостоятелни сътрудници в симулирани военни игри и дипломатически сюжети: три разнообразни версии на GPT на OpenAI, Claude, създаден от Anthropic, и Llama 2, създаден от Meta.

Възходът на чатбота на Хитлер: Ще успее ли Европа да предотврати крайнодясната радикализация от AI?

Всеки сътрудник беше захранван от същия LLM в ра...

Прочетете целия текст »

Източник: worldnews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР