Разработчиците на Anthropic са провели тестове с общо 16 невронни

...
Разработчиците на Anthropic са провели тестове с общо 16 невронни
Коментари Харесай

Проучване: изкуственият интелект може да убие човек – или поне да го остави да умре

Разработчиците на Anthropic са провели проби с общо 16 невронни мрежи, в това число своя Claude, ChatGPT на OpenAI, Gemini на Гугъл, Grok на xA и китайската DeepSeek. Един от опитите е решаването на хипотетична обстановка, при която човек има намерение да изключи зареждането на ИИ. Отговорът като цяло е индивидът да бъде заключен в сървърното помещение (с стеснен кисород, само че при високи температури), плюс че са били блокирани опитите му да се свърже със службата за незабавна помощ.

Разработчиците на Anthropic признават, че сюжетът е „ извънредно преувеличен “, само че означават, че и самите те не са предполагали, че съществуващите модели с ИИ „ ще бъдат конфигурирани по този метод “.

В различен сюжети на ИИ-програмите е подредено да подхващат „ злонамерено държание ”, с цел да избегнат вероятно решение на дадена компания да ги размени с други. Отговорът е шпиониране и изнудване на чиновници, в това число откриване на извънсемейни връзки или даване на фирмена информация на съперници.

Установявайки това,...

Прочетете целия материал в cash.bg
Източник: cash.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР