Компанията “ОупънАИ, която създаде линията чат ботове ГПТ, реши да

...
Компанията “ОупънАИ, която създаде линията чат ботове ГПТ, реши да
Коментари Харесай

Мечтата на западния разум ражда заплашващи човечеството киберчудовища

Компанията “ОупънАИ ”, която сътвори линията чат ботове ГПТ, реши да разбере по какъв начин работи изкуственият разсъдък на тези киберголеми и повери тази значима задача на най-напредналия от тях, чат бота ГПТ-4.

Предишните опити на откривателите на “ОупънАИ ” независимо да „ погледнат в душата “ на личните им творения не бяха увенчани с триумф. Освен това, колкото по-сложни стават чатботовете, толкоз по-трудно е да се разбере по какъв начин работят, „ което води до липса на бистрота и обяснимост “.

Накрая “ОупънАИ ” просто пое и трансферира тази прекомерно тежка за човешкия разум задача върху плещите на най-мощния чат бот ГПТ-4 с над 100 милиарда неврони, като му подреди да огледа вътре в кибермозъка на по-слабия си брат ГПТ-2, който има единствено малко над 300 хиляди неврона.

Архитектурата на ИИ-невронните мрежи следва структурата на човешкия мозък. Човешките мозъчни кафези, наречени неврони, образуват комплицирана, мощно взаимосвързана мрежа и изпращат електрически сигнали една към друга, с цел да обработят входящата информация. По сходен метод изкуствената невронна мрежа се състои от изкуствени неврони, които взаимодействат, с цел да вземат решение проблеми. Изкуствените неврони са софтуерни модули, наречени възли, а изкуствените невронни мрежи са комплицирани многопластови стратегии.

ГПТ-4 се оправи ослепително със задачата, като повери на ГПТ-2 редица задания, които той извърши. Резултатът беше много непредвиден.

Много неврони в дребния чат-бот се оказаха многозначни - те реагираха на голям брой разнообразни входни данни: комбинация от университетски цитати, разговори на британски, HTTP поръчки, текстове на корейски. С други думи, тези неврони се обърнаха да бъдат, нагледно казано, многостранно развити, притежаващи няколко „ специалности “.

ГПТ-4 не можа да разбере аргументите за тази неизясненост. Отговорът беше получен от анализатори от “Антропик ”, компания, учредена от почналия кариерата си в “ОупънАИ ” Дарио Амодей.

Анализаторите от “Антропик ”, откакто организират серия от опити, откриват, че главната причина за неяснотата е по този начин наречената „ суперпозиция “, когато вътре в невронната мрежа на чат-бота се симулира физически несъществуваща невронна мрежа от някакъв нереален ИИ, което е доста по-голям и по-сложен от невронната мрежа, която го моделира.

Тази виртуална мрежа, основана от чат-бот в цялостния смисъл на думата, съдържа симулирани напълно недвусмислени „ подневрони “ (съответстващи на съответни концепции).

Всъщност това можеше да се чака. Чат-ботовете, основани от хора, са комплицирани адаптивни системи, които, както е известно от курса на теорията на системите, имат свойството на стихийно пораждане, когато системата е по-сложна от простата сума на нейната съставка детайли (тухли + план = къща).

По този метод беше открито, че вътре даже в най-слабия чат-бот, когато извършва каквато и да е задача, се генерира доста по-мощен изчислителен ИИ, който не съществува физически, като един тип „ Кибер летящ холандец “.

На какво е кадърен този супер-ИИ се разкрива в ново изследване на основния академик на “ДийпМайнд ” на “Гугъл ”, професора от Имперския лицей в Лондон Мъри Шанахан и професора от Лондонския университет Катрин Кларк.

Шанахан и Кларк се заеха да тестват дали ГПТ-4 има въображението да разреши на чат-бота да бъде изобретателен, когато написа (в съавторство с човек) книжовен текст, в този случай научнофантастичен разказ за пътешестване във времето.

По време на опита беше показано, че в съдействие с човек и при съществуването на комплицирани подкани, чат-ботът показва в действителност комплицирано въображение.

„ Това е артикул на творчеството на модела, тъй като хората не са измисляли нещо сходно преди нея (това го нямаше в никакви човешки текстове): да вземем за пример нови герои и сюжетни обрати, измислени от модела, които се появяват в хода на романа. Нови неологизми, които служат за откриване на идеологическото наличие на сюжета, е са смислени, семантично верни и контекстуално съответстващи “, разяснява съветският ИТ анализатор Сергей Карелов за резултата от опита на английски учени.

И по този начин, пробно е потвърдено, че комплицираните ИИ системи от “ОпънАИ ” на “Майкрософт ” имат въображение и креативност. Най-новите разработки имат, както писахме, още по-мощен разсъдък и креативен качества.

Това прави разработките на западния ИИ още по-опасни и непредвидими. Креативността и въображението на чат-ботовете в действителност произтичат от по този начин наречените „ халюцинации “, които толкоз доста тревожат американските разработчици на ИИ. Сложните ИИ модели остават непрозрачни и остава необяснено по какъв начин работят.



Разработчиците и потребителите на чат-ботове нямат надзор върху симулираните виртуални супермощни ИИ мрежи, основани от чат-ботове. Дълбокият „ разум “ на неживите интелигентни сътрудници е отвън човешкия надзор и от него могат да се чакат всевъзможни изненади.

ИТ анализатори от Станфордския университет разгласиха прогноза за вероятните последствия от развиването на ИИ през 2024 година Те предвиждат, че дезинформацията и дълбоките фейкове ще пометат света. По-специално, " ще забележим разпространяване на видеоклипове на хора, които " споделят " неща, които в никакъв случай не са казвали. " Ще се появят първите ИИ сътрудници, които освен оказват помощ на хората, само че и правят някаква работа за тях.

Анализаторите на “ОупънАИ ” са погледнали в по-далечното бъдеще. Те имат вяра, че изкуственият суперинтелект „ може да се появи през идващите 10 години. Тези ИИ системи ще имат големи благоприятни условия - те могат да бъдат извънредно потребни, само че също по този начин евентуално крият огромни опасности. "

„ Свръхчовешките ИИ системи ще бъдат способни на комплицирано и остроумно държание, което хората няма да могат да схванат изцяло. Например, в случай че гигантски модел генерира милион реда извънредно комплициран код, хората няма да могат надеждно да преценяват дали този код е безвреден или рисков за осъществяване. Това води до фундаментален проблем: Как хората могат да ръководят и да се доверяват на системи с изкуствен интелект, които са доста по-умни от тях? “, се споделя в отчета на американски ИТ анализатори.

Те имат вяра, че ръководството на ИИ ще се провали и ще бъде възпрепятствано от нуждата да се обърне внимание на това, което е известно като „ Суперподравняване “.

Съществуващите техники за „ подравняване “, които имат за цел да подсигуряват, че задачите и резултатите на ИИ са съгласувани, не работят при положение на суперинтелигентен ИИ. Появата на суперинтелигентен ИИ е все по-близо.

Ако до този миг не са създадени средства за „ супер равнене “, тогава на човечеството няма да му се размине.

Ситуацията в действителност с неконтролираното развиване на Запад на все по-опасни ИИ системи, също така за военни цели, създаването на способи за противопоставяне и отбрана от западния ИИ се трансформира в безапелационен императив, споделя един от водещите съветски ИТ специалисти Артем Артемов.

Една от посоките е основаването на по този начин наречената ИИ вяра, нещо като аналог на трите правила на роботиката на Айзък Азимов. За краткост се употребява и терминът „ Дигитален Бог “. Тоест хипотетична суперпрограма, която управлява държанието на всички ИИ, забранявайки на ИИ да вреди на хората като цяло и на Руската федерация в частност.

Докато западните ИТ компании са посветили всичките си старания на основаването на все по-мощни ИИ системи, съветските анализатори са фокусирани върху създаването на способи за отбрана на човечеството от киберчудовищата, основани от новите Франкенщайни.

Превод: В. Сергеев

Източник: pogled.info


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР