OpenAI: ИИ ще се отнася с нас като с животни
Създаването на сходен на индивида идеален изкуствен интелект може да окаже прекомерно негативно влияние върху бъдещето на хората.
В новия документален филм, оповестен от изданието The Guardian, Иля Суцкевер, съосновател и водещ академик в OpenAI, показва мнение, че ИИ технологията, която компанията му създава, ще промени света, само че не наложително в интерес на човечеството. Филмът, сниман сред 2016 и 2019 година, демонстрира Суцкевер по времето, когато OpenAI едвам стартира да построява технологията, която стои зад известния сега ChatGPT. Той отбелязва, че изкуственият разсъдък (AI) ще реши доста от днешните проблеми, в това число заетостта, заболяванията и бедността, само че ще сътвори и нови.
Суцкевер, прочут с проучванията си в региона на машинното образование, съобщи при започване на 2022 година, че някои огромни езикови модели (LLM) може да се осъзнаят. Той подчертава върху смисъла на „ подравняването на ИИ “ – задачата за основаване на AI, който е координиран с нашите цели.
Коментирайки вероятните цели на осъзнатия и несъгласуван с нашите цели изкуствен интелект, Суцкевер го съпоставя с държанието на хората по отношение на животните – по този начин да вземем за пример ние не желаеме позволение от животните, когато строим автомагистрали, тъй като това е комфортно за нас. Според Суцкевер тъкмо такива връзки могат да се развият сред хората и универсалния общ изкуствен интелект (AGI – Artificial General Intelligence), в случай че той не е програмиран и не е подготвен както би трябвало.
Суцкевер предизвестява, че в случай че програмирането и образованието на ИИ се прави погрешно, естеството на еволюцията и естествения асортимент ще благоприятстват оцеляването на тези системи, които дават приоритет на личното си оцеляване. Тоест универсалният ИИ ще желае да оцелее в границите на еволюционните закони и ще бъде толкоз напред от нас, че ще смята хората като животни, може би като буболечки. Специалистът заключава, че това е извънредно значимо за бъдещето на човечеството.




