Бившият анализатор по сигурността на OpenAI Леополд Ашенбренер публикува статия,

...
Бившият анализатор по сигурността на OpenAI Леополд Ашенбренер публикува статия,
Коментари Харесай

Бивш служител на OpenAI говори за опасностите от AI

Бившият анализатор по сигурността на OpenAI Леополд Ашенбренер разгласява публикация, описваща бъдещето на изкуствения разсъдък и рисковете, свързани с неговото развиване. Според прогнозите му, до 2027 година може да бъде основан така наречен неестествен общ разсъдък (AGI), кадърен да взема решение необятен кръг от проблеми, да се самообучава и да не отстъпва на човешкия разум.

Това оповестява Situational Awareness.

В работата си Ашенбренер акцентира, че развиването на изкуствения разсъдък се случва прекомерно бързо и човечеството няма време да осъзнае това движение. Според него, до 2026 година разработваните прототипи на AGI ще бъдат по-умни от приключилите лицей, а до края на десетилетието ще могат да надминат всеки човек по просветеност, което ще докара до появяването на неестествен суперинтелект.

Ашенбренер отбелязва, че появяването на изкуствен интелект на равнище автоматизирано проучване ще докара до съвсем неконтролируем бърз напредък на AGI, създавайки съществени закани за цялото човечество. Авторът акцентира, че може да възникне спор сред Съединени американски щати и Китай.

Той също по този начин отбелязва, че ще се появи нова конкуренция във въоръжаването сред страните и развиването на изкуствения разсъдък, който ще стартира да управлява доста аспекти на живота, в това число и защитата. Основната опасност е, че човечеството ще стигне до този миг импровизирано за това, пред което ще се изправи.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР