DeepMind прогнозира появата на изкуствен интелект на ниво човек още към 2030 г.
Гугъл DeepMind разгласява публикация за своя метод към сигурността на общия изкуствен интелект (AGI), който компанията дефинира като система, чиито качества са сравними с тези на умел възрастен човек в необятен набор от умствени задания. DeepMind счита, че AGI би трябвало да се чака към 2030 година Според създателите тези системи биха могли да съставляват екзистенциална опасност, стигаща до „ заличаване на човечеството “.
В документа от 145 страници, чийто съавтор е съоснователят на DeepMind Шейн Лег, се споделя, че AGI може да се появи още през 2030 година и да аргументи „ съществени вреди “. Авторите даже загатват „ унищожаването на човечеството “. Компанията дефинира общия изкуствен интелект като: система, чиито качества са сравними с 99-ия процентил на квалифицирани възрастни в необятен набор от нефизически задания, в това число метакогнитивни задания, като да вземем за пример асимилиране на нови умения.
DeepMind съпоставя своя метод за ръководство на риска при AGI с методите на Anthropic и OpenAI. Авторите откриват, че Anthropic не обръща задоволително внимание на образованието и мониторинга на сигурността, до момента в който OpenAI разчита прекалено много на автоматизирането на проучванията на сигурността на ИИ – така наречен matching.
OpenAI неотдавна разгласи, че измества фокуса си от AGI към свръхинтелигентност. Документът на DeepMind слага под въпрос опцията за основаване на свръхинтелигентен ИИ – т.е. ИИ, който превъзхожда хората във всички задания. Авторите считат, че без основни промени в архитектурата на изкуствения разсъдък е малко евентуално в близкото бъдеще да се появят свръхинтелигентни системи, а може би и въобще да не се появят.
Авторите обаче считат, че е много евентуално съществуващите технологии да разрешат на ИИ да се самоусъвършенства. Това значи, че изкуственият разсъдък ще се самообучава и ще основава по-усъвършенствани версии на самия себе си. Това може да бъде извънредно рисково, се акцентира в документа.
Компанията предлага тактика за отбрана на хипотетичния общ ИИ, учредена на три правилото: ограничение на достъпа на злоумишленици, увеличение на прозрачността на решенията за ИИ и основаване на безвредна среда за работата му. Въпреки че доста механически решения към момента са в развой на създаване, създателите упорстват за нуждата от предприемане на превантивни ограничения против евентуалните закани още в този момент.
Експертите показаха песимизъм във връзка с наредбите на изследването. Някои означават, че концепцията за AGI към момента е прекомерно неразбираема за научна оценка, други считат, че самоусъвършенстването на ИИ е недоказана догадка. Специалистите показват по-належащ проблем – халюцинацинирането на ИИ. Тъй като генерираното наличие, което не постоянно е изцяло тъкмо, изпълва интернет, моделите на ИИ стартират да се учат от личните си изкривени изводи, създавайки циничен кръг от дезинформация.




