Мечтата на западния разум ражда заплашващи човечеството киберчудовища
Компанията “ОупънАИ ”, която сътвори линията чат ботове ГПТ, реши да разбере по какъв начин работи изкуственият разсъдък на тези киберголеми и повери тази значима задача на най-напредналия от тях, чат бота ГПТ-4.
Предишните опити на откривателите на “ОупънАИ ” независимо да „ погледнат в душата “ на личните им творения не бяха увенчани с триумф. Освен това, колкото по-сложни стават чатботовете, толкоз по-трудно е да се разбере по какъв начин работят, „ което води до липса на бистрота и обяснимост “.
Накрая “ОупънАИ ” просто пое и трансферира тази прекомерно тежка за човешкия разум задача върху плещите на най-мощния чат бот ГПТ-4 с над 100 милиарда неврони, като му подреди да огледа вътре в кибермозъка на по-слабия си брат ГПТ-2, който има единствено малко над 300 хиляди неврона.
Архитектурата на ИИ-невронните мрежи следва структурата на човешкия мозък. Човешките мозъчни кафези, наречени неврони, образуват комплицирана, мощно взаимосвързана мрежа и изпращат електрически сигнали една към друга, с цел да обработят входящата информация. По сходен метод изкуствената невронна мрежа се състои от изкуствени неврони, които взаимодействат, с цел да вземат решение проблеми. Изкуствените неврони са софтуерни модули, наречени възли, а изкуствените невронни мрежи са комплицирани многопластови стратегии.
ГПТ-4 се оправи ослепително със задачата, като повери на ГПТ-2 редица задания, които той извърши. Резултатът беше много непредвиден.
Много неврони в дребния чат-бот се оказаха многозначни - те реагираха на голям брой разнообразни входни данни: комбинация от университетски цитати, разговори на британски, HTTP поръчки, текстове на корейски. С други думи, тези неврони се обърнаха да бъдат, нагледно казано, многостранно развити, притежаващи няколко „ специалности “.
ГПТ-4 не можа да разбере аргументите за тази неизясненост. Отговорът беше получен от анализатори от “Антропик ”, компания, учредена от почналия кариерата си в “ОупънАИ ” Дарио Амодей.
Анализаторите от “Антропик ”, откакто организират серия от опити, откриват, че главната причина за неяснотата е по този начин наречената „ суперпозиция “, когато вътре в невронната мрежа на чат-бота се симулира физически несъществуваща невронна мрежа от някакъв нереален ИИ, което е доста по-голям и по-сложен от невронната мрежа, която го моделира.
Тази виртуална мрежа, основана от чат-бот в цялостния смисъл на думата, съдържа симулирани напълно недвусмислени „ подневрони “ (съответстващи на съответни концепции).
Всъщност това можеше да се чака. Чат-ботовете, основани от хора, са комплицирани адаптивни системи, които, както е известно от курса на теорията на системите, имат свойството на стихийно пораждане, когато системата е по-сложна от простата сума на нейната съставка детайли (тухли + план = къща).
По този метод беше открито, че вътре даже в най-слабия чат-бот, когато извършва каквато и да е задача, се генерира доста по-мощен изчислителен ИИ, който не съществува физически, като един тип „ Кибер летящ холандец “.
На какво е кадърен този супер-ИИ се разкрива в ново изследване на основния академик на “ДийпМайнд ” на “Гугъл ”, професора от Имперския лицей в Лондон Мъри Шанахан и професора от Лондонския университет Катрин Кларк.
Шанахан и Кларк се заеха да тестват дали ГПТ-4 има въображението да разреши на чат-бота да бъде изобретателен, когато написа (в съавторство с човек) книжовен текст, в този случай научнофантастичен разказ за пътешестване във времето.
По време на опита беше показано, че в съдействие с човек и при съществуването на комплицирани подкани, чат-ботът показва в действителност комплицирано въображение.
„ Това е артикул на творчеството на модела, тъй като хората не са измисляли нещо сходно преди нея (това го нямаше в никакви човешки текстове): да вземем за пример нови герои и сюжетни обрати, измислени от модела, които се появяват в хода на романа. Нови неологизми, които служат за откриване на идеологическото наличие на сюжета, е са смислени, семантично верни и контекстуално съответстващи “, разяснява съветският ИТ анализатор Сергей Карелов за резултата от опита на английски учени.
И по този начин, пробно е потвърдено, че комплицираните ИИ системи от “ОпънАИ ” на “Майкрософт ” имат въображение и креативност. Най-новите разработки имат, както писахме, още по-мощен разсъдък и креативен качества.
Това прави разработките на западния ИИ още по-опасни и непредвидими. Креативността и въображението на чат-ботовете в действителност произтичат от по този начин наречените „ халюцинации “, които толкоз доста тревожат американските разработчици на ИИ. Сложните ИИ модели остават непрозрачни и остава необяснено по какъв начин работят.
Разработчиците и потребителите на чат-ботове нямат надзор върху симулираните виртуални супермощни ИИ мрежи, основани от чат-ботове. Дълбокият „ разум “ на неживите интелигентни сътрудници е отвън човешкия надзор и от него могат да се чакат всевъзможни изненади.
ИТ анализатори от Станфордския университет разгласиха прогноза за вероятните последствия от развиването на ИИ през 2024 година Те предвиждат, че дезинформацията и дълбоките фейкове ще пометат света. По-специално, " ще забележим разпространяване на видеоклипове на хора, които " споделят " неща, които в никакъв случай не са казвали. " Ще се появят първите ИИ сътрудници, които освен оказват помощ на хората, само че и правят някаква работа за тях.
Анализаторите на “ОупънАИ ” са погледнали в по-далечното бъдеще. Те имат вяра, че изкуственият суперинтелект „ може да се появи през идващите 10 години. Тези ИИ системи ще имат големи благоприятни условия - те могат да бъдат извънредно потребни, само че също по този начин евентуално крият огромни опасности. "
„ Свръхчовешките ИИ системи ще бъдат способни на комплицирано и остроумно държание, което хората няма да могат да схванат изцяло. Например, в случай че гигантски модел генерира милион реда извънредно комплициран код, хората няма да могат надеждно да преценяват дали този код е безвреден или рисков за осъществяване. Това води до фундаментален проблем: Как хората могат да ръководят и да се доверяват на системи с изкуствен интелект, които са доста по-умни от тях? “, се споделя в отчета на американски ИТ анализатори.
Те имат вяра, че ръководството на ИИ ще се провали и ще бъде възпрепятствано от нуждата да се обърне внимание на това, което е известно като „ Суперподравняване “.
Съществуващите техники за „ подравняване “, които имат за цел да подсигуряват, че задачите и резултатите на ИИ са съгласувани, не работят при положение на суперинтелигентен ИИ. Появата на суперинтелигентен ИИ е все по-близо.
Ако до този миг не са създадени средства за „ супер равнене “, тогава на човечеството няма да му се размине.
Ситуацията в действителност с неконтролираното развиване на Запад на все по-опасни ИИ системи, също така за военни цели, създаването на способи за противопоставяне и отбрана от западния ИИ се трансформира в безапелационен императив, споделя един от водещите съветски ИТ специалисти Артем Артемов.
Една от посоките е основаването на по този начин наречената ИИ вяра, нещо като аналог на трите правила на роботиката на Айзък Азимов. За краткост се употребява и терминът „ Дигитален Бог “. Тоест хипотетична суперпрограма, която управлява държанието на всички ИИ, забранявайки на ИИ да вреди на хората като цяло и на Руската федерация в частност.
Докато западните ИТ компании са посветили всичките си старания на основаването на все по-мощни ИИ системи, съветските анализатори са фокусирани върху създаването на способи за отбрана на човечеството от киберчудовищата, основани от новите Франкенщайни.
Превод: В. Сергеев
Предишните опити на откривателите на “ОупънАИ ” независимо да „ погледнат в душата “ на личните им творения не бяха увенчани с триумф. Освен това, колкото по-сложни стават чатботовете, толкоз по-трудно е да се разбере по какъв начин работят, „ което води до липса на бистрота и обяснимост “.
Накрая “ОупънАИ ” просто пое и трансферира тази прекомерно тежка за човешкия разум задача върху плещите на най-мощния чат бот ГПТ-4 с над 100 милиарда неврони, като му подреди да огледа вътре в кибермозъка на по-слабия си брат ГПТ-2, който има единствено малко над 300 хиляди неврона.
Архитектурата на ИИ-невронните мрежи следва структурата на човешкия мозък. Човешките мозъчни кафези, наречени неврони, образуват комплицирана, мощно взаимосвързана мрежа и изпращат електрически сигнали една към друга, с цел да обработят входящата информация. По сходен метод изкуствената невронна мрежа се състои от изкуствени неврони, които взаимодействат, с цел да вземат решение проблеми. Изкуствените неврони са софтуерни модули, наречени възли, а изкуствените невронни мрежи са комплицирани многопластови стратегии.
ГПТ-4 се оправи ослепително със задачата, като повери на ГПТ-2 редица задания, които той извърши. Резултатът беше много непредвиден.
Много неврони в дребния чат-бот се оказаха многозначни - те реагираха на голям брой разнообразни входни данни: комбинация от университетски цитати, разговори на британски, HTTP поръчки, текстове на корейски. С други думи, тези неврони се обърнаха да бъдат, нагледно казано, многостранно развити, притежаващи няколко „ специалности “.
ГПТ-4 не можа да разбере аргументите за тази неизясненост. Отговорът беше получен от анализатори от “Антропик ”, компания, учредена от почналия кариерата си в “ОупънАИ ” Дарио Амодей.
Анализаторите от “Антропик ”, откакто организират серия от опити, откриват, че главната причина за неяснотата е по този начин наречената „ суперпозиция “, когато вътре в невронната мрежа на чат-бота се симулира физически несъществуваща невронна мрежа от някакъв нереален ИИ, което е доста по-голям и по-сложен от невронната мрежа, която го моделира.
Тази виртуална мрежа, основана от чат-бот в цялостния смисъл на думата, съдържа симулирани напълно недвусмислени „ подневрони “ (съответстващи на съответни концепции).
Всъщност това можеше да се чака. Чат-ботовете, основани от хора, са комплицирани адаптивни системи, които, както е известно от курса на теорията на системите, имат свойството на стихийно пораждане, когато системата е по-сложна от простата сума на нейната съставка детайли (тухли + план = къща).
По този метод беше открито, че вътре даже в най-слабия чат-бот, когато извършва каквато и да е задача, се генерира доста по-мощен изчислителен ИИ, който не съществува физически, като един тип „ Кибер летящ холандец “.
На какво е кадърен този супер-ИИ се разкрива в ново изследване на основния академик на “ДийпМайнд ” на “Гугъл ”, професора от Имперския лицей в Лондон Мъри Шанахан и професора от Лондонския университет Катрин Кларк.
Шанахан и Кларк се заеха да тестват дали ГПТ-4 има въображението да разреши на чат-бота да бъде изобретателен, когато написа (в съавторство с човек) книжовен текст, в този случай научнофантастичен разказ за пътешестване във времето.
По време на опита беше показано, че в съдействие с човек и при съществуването на комплицирани подкани, чат-ботът показва в действителност комплицирано въображение.
„ Това е артикул на творчеството на модела, тъй като хората не са измисляли нещо сходно преди нея (това го нямаше в никакви човешки текстове): да вземем за пример нови герои и сюжетни обрати, измислени от модела, които се появяват в хода на романа. Нови неологизми, които служат за откриване на идеологическото наличие на сюжета, е са смислени, семантично верни и контекстуално съответстващи “, разяснява съветският ИТ анализатор Сергей Карелов за резултата от опита на английски учени.
И по този начин, пробно е потвърдено, че комплицираните ИИ системи от “ОпънАИ ” на “Майкрософт ” имат въображение и креативност. Най-новите разработки имат, както писахме, още по-мощен разсъдък и креативен качества.
Това прави разработките на западния ИИ още по-опасни и непредвидими. Креативността и въображението на чат-ботовете в действителност произтичат от по този начин наречените „ халюцинации “, които толкоз доста тревожат американските разработчици на ИИ. Сложните ИИ модели остават непрозрачни и остава необяснено по какъв начин работят.
Разработчиците и потребителите на чат-ботове нямат надзор върху симулираните виртуални супермощни ИИ мрежи, основани от чат-ботове. Дълбокият „ разум “ на неживите интелигентни сътрудници е отвън човешкия надзор и от него могат да се чакат всевъзможни изненади.
ИТ анализатори от Станфордския университет разгласиха прогноза за вероятните последствия от развиването на ИИ през 2024 година Те предвиждат, че дезинформацията и дълбоките фейкове ще пометат света. По-специално, " ще забележим разпространяване на видеоклипове на хора, които " споделят " неща, които в никакъв случай не са казвали. " Ще се появят първите ИИ сътрудници, които освен оказват помощ на хората, само че и правят някаква работа за тях.
Анализаторите на “ОупънАИ ” са погледнали в по-далечното бъдеще. Те имат вяра, че изкуственият суперинтелект „ може да се появи през идващите 10 години. Тези ИИ системи ще имат големи благоприятни условия - те могат да бъдат извънредно потребни, само че също по този начин евентуално крият огромни опасности. "
„ Свръхчовешките ИИ системи ще бъдат способни на комплицирано и остроумно държание, което хората няма да могат да схванат изцяло. Например, в случай че гигантски модел генерира милион реда извънредно комплициран код, хората няма да могат надеждно да преценяват дали този код е безвреден или рисков за осъществяване. Това води до фундаментален проблем: Как хората могат да ръководят и да се доверяват на системи с изкуствен интелект, които са доста по-умни от тях? “, се споделя в отчета на американски ИТ анализатори.
Те имат вяра, че ръководството на ИИ ще се провали и ще бъде възпрепятствано от нуждата да се обърне внимание на това, което е известно като „ Суперподравняване “.
Съществуващите техники за „ подравняване “, които имат за цел да подсигуряват, че задачите и резултатите на ИИ са съгласувани, не работят при положение на суперинтелигентен ИИ. Появата на суперинтелигентен ИИ е все по-близо.
Ако до този миг не са създадени средства за „ супер равнене “, тогава на човечеството няма да му се размине.
Ситуацията в действителност с неконтролираното развиване на Запад на все по-опасни ИИ системи, също така за военни цели, създаването на способи за противопоставяне и отбрана от западния ИИ се трансформира в безапелационен императив, споделя един от водещите съветски ИТ специалисти Артем Артемов.
Една от посоките е основаването на по този начин наречената ИИ вяра, нещо като аналог на трите правила на роботиката на Айзък Азимов. За краткост се употребява и терминът „ Дигитален Бог “. Тоест хипотетична суперпрограма, която управлява държанието на всички ИИ, забранявайки на ИИ да вреди на хората като цяло и на Руската федерация в частност.
Докато западните ИТ компании са посветили всичките си старания на основаването на все по-мощни ИИ системи, съветските анализатори са фокусирани върху създаването на способи за отбрана на човечеството от киберчудовищата, основани от новите Франкенщайни.
Превод: В. Сергеев
Източник: pogled.info
КОМЕНТАРИ




