Големият спор: супер изкуственият интелект ще се появи през 2027 година. И какво ще се случи тогава?
Докато специалистите по машинно образование разискват бъдещето на изкуствения разсъдък, някогашен чиновник на OpenAI, компанията, която даде на света ChatGPT, твърди, че конкуренцията за общ изкуствен интелект (AGI) към този момент е почнала. В дълъг отчет известният откривател Леополд Ашенбреннер написа, че сега единствено няколкостотин души имат ситуационна визия за технологията и за това по какъв начин напредъкът ѝ ще се отрази на бъдещето, а жаждата за облага кара разработчиците да създават AGI с темпове, които подценяват всички опасности и ограничавания.
„ Ние сътворяваме системи, които могат да мислят и да обосновават дейностите си. До 2025/26 година те ще надминат доста висшисти, а до края на десетилетието ще бъдат по-умни от вас и от мен “, се споделя в отчета.
Наистина ли ще станем очевидци на появяването на свръхинтелигентност? Нека се спрем по-подробно.
Супер ИИ може да се появи още през 2027 година До това умозаключение е стигнал някогашният чиновник на OpenAI. Не ви ли се коства, че това е напълно скоро? Общият изкуствен интелект (General Artificial Intelligence – AGI) е област от теоретичните проучвания на изкуствения разсъдък, която се стреми да сътвори програмен продукт с просветеност, сходна на човешката, и дарба да независимо да се самообучава.
В преследването на AGI
Предсказанията за гибелта на киното в ръцете на генеративния изкуствен интелект бледнеят спрямо предизвестията за ориста на човечеството, в случай че учените в действителност съумеят да основат изкуствен интелект с общо предопределение (AGI) – към момента хипотетична система, способна да работи на човешко или свръхчовешко равнище. Мненията на учените обаче се разграничават доста – първите считат AGI за неосъществим, вторите предвиждат появяването му след десетилетия, а третите са уверени, че AGI ще се появи преди 2030 година
Неотдавна някогашният чиновник на OpenAI Леополд Ашенбренер, чиято рожба е точно ChatGPT, разгласява огромен отчет от 165 страници, в който разказва развиването на генеративните системи за ИИ през идващите 10 години. Може да наподобява, че Ашенбренер преувеличава, само че думите му ни карат да се замислим: мащабът на финансирането на ИИ към този момент надвишава и най-смелите упования.
Бившият чиновник на OpenAI твърди, че разработчиците пренебрегват рисковете и подценяват сигурността при основаването на AGI Важно е да се означи, че Ашенбренер не е член на каквато и да е фракция или алармист, който проповядва края на света. Той, сходно на Илън Мъск, е взаимен с тези, които приканват за по-голяма „ ситуационна “ информираност за капацитета на ИИ и за държавна интервенция за ограничение на властта на ИИ фирмите.
Въпреки че в отчета не се показват имена, той явно се отнася за OpenAI, където Ашенбренер е отговарял за ограниченията за сигурност във връзка с създаването на AGI. Ученият бе уволнен през април тази година, явно поради рецензиите си към управлението, което съгласно него „ пренебрегвало сигурността в името на парите “. Представители на OpenAI на собствен ред обявиха, че Ашенбренер е уволнен поради приключване на значима информация за готовността на компанията да внедри AGI.
В своя отбрана някогашният чиновник съобщи, че информацията, която е споделил, е била „ безусловно естествена “, защото се е базирала на обществено налични данни. Той подозира, че компанията просто е търсила метод да се отърве от него. Интересно е, че ръководителите на отдела, в който е работил Ашенбренер, също са подали оставка.
Ако може да се има вяра на някогашните чиновници на OpenAI, компанията основава супер ИИ за облага. Голяма облага Друг някогашен чиновник на OpenAI, Даниел Кокотайло, също споделя мнението на Ашенбренер и споделя, че OpenAI създава все по-мощни системи за изкуствен интелект за в последна сметка да надмине човешкия разсъдък във всеки аспект. По негово мнение AGI ще бъде или най-хубавото, или най-лошото събитие в човешката история, а доверието в управлението на OpenAI последователно понижава основно заради безотговорността и пренебрегването на сигурността.
„ Надпреварата за AGI към този момент е почнала. До края на десетилетието ще имаме свръхинтелигентност в същинския смисъл на думата. Ако имаме шанс, ще бъдем в тотална конкуренция с другите страни, а в случай че не, може да избухне международна война “, се споделя в отчета.
И без това новата Световна война чука на вратата.
Какво желаят корпорациите?
За да вникнем по-добре в актуалната обстановка, дано си напомним, че генеративният ИИ заема значимо място в софтуерната среда. Видяхме, че изкуственият разсъдък направи компании като Microsoft най-ценните в света с пазарна капитализация от над 3 трилиона $. Пазарните анализатори отдават този бърз напредък на обстоятелството, че компанията доста бързо е възприела софтуерната иновация.
Дори NVIDIA е на път да внедри изкуствен интелект в своите устройства, откакто неотдавна изпревари Apple и стана втората най-ценна компания в света заради голямото търсене на графични процесори за разработки в региона на изкуствения разсъдък, настояват специалистите.
Microsoft и OpenAI наподобява са измежду водещите софтуерни компании, които влагат извънредно доста в изкуствен интелект. Партньорството им обаче провокира дискусия, защото вътрешни лица показват, че Microsoft се е трансформирала в „ прославения ИТ отдел за обещаващи стартъпи “.
Технологичните колоси Microsoft и OpenAI са обект на от ден на ден рецензии Милиардерът и създател на SapceX Илън Мъск споделя, че OpenAI наподобява „ на процедура се е трансформирала в дъщерно сдружение на Microsoft със затворен първоначален код “.
За никого не е загадка, че партньорството сред фирмите е комплицирано, а неотдавнашните разногласия към OpenAI не го усъвършенстват. Както беше упоменато нагоре, няколко високопоставени чиновници напуснаха OpenAI след стартирането на GPT-4. И въпреки аргументите за тяхното овакантяване да остават в най-хубавия случай неразбираеми, Ян Лейке, някогашният началник на екипа на Ашенбренер, съобщи, че е угрижен за развиването на изкуствения разсъдък в компанията.
Илън Мъск от дълго време подлага на критика управлението на OpenAI Всичко това значи, че е извънредно мъчно да се планува каква ще бъде траекторията на изкуствения разсъдък през идващите няколко години. Въпреки това основният изпълнителен шеф на NVIDIA Дженсън Хуанг показва, че „ може би сме на прага на идната вълна на изкуствения разсъдък “. Той също по този начин твърди, че роботиката е идната огромна промишленост, доминирана от самоуправляващи се коли и хуманоидни роботи.
За благополучие, отчетът на Aschenbrenner дава известна визия за бъдещето. Неговите прогнози обаче са много тревожни, а в някои от тях даже е мъчно да се повярва.
Докладът на Ашенбренер, най-същественото
Ето какви са главните заключения от отчета в пет глави и 165 страници:
Изкуственият разсъдък напредва с бързи крачки и до 2027 година ще имаме нещо, което повече наподобява на сътрудник, в сравнение с чатбот. Към този миг невронните мрежи ще могат да правят работата на един изследовател/инженер в региона на изкуствения разсъдък. Напредъкът на ИИ няма да спре на човешко равнище и бързо ще преминем от AGI към тотално гигантски ИИ системи. Този свръхинтелект евентуално ще се появи още през 2030 г. Нито един екип от експерти не може да се оправи със свръхчовешкия ИИ. В момента в света има единствено няколкостотин души, които схващат какво ни чака и какъв брой безумни могат да станат идните събития. Необходимите стъпки, които би трябвало да бъдат подхванати: неотложно и коренно усилване на сигурността на лабораториите за ИИ; създаване на изчислителни клъстери за AGI в САЩ; подготвеност на ИИ лабораториите да си сътрудничат с военните.Какво въпреки всичко ще се случи през 2027 година?
AGI към 2027 година наподобява поразително правдоподобно. Не е нужно да вярвате в научната фантастика, а просто в вършиме линии на графиката на растежа на опциите на ИИ “, написа някогашният чиновник на OpenAI.
И по този начин, съгласно отчета на Ашенбреннер развиването на ИИ напредва с стремглави темпове и в случай че тази наклонност се резервира, до 2027 година изкуственият разсъдък ще бъде поразително сходен на човешкия. Думите му имат смисъл, тъй като единствено за четири години – от GPT-2 до GPT-4 – ИИ се трансформира от дете в предучилищна възраст в интелигентен гимназист.
„ Ако погледнете трендовете в успеваемостта на изчислителните технологии и логаритмите, умерено може да се каже, че до 2027 година ни чака още една качествена смяна от „ гимназист къ студент “, написа Ашенбренер.
Нещо повече, съгласно някогашния чиновник на OpenAI напредъкът на ИИ няма да спре на човешко равнище, защото в близко бъдеще стотици милиони ИИ ще могат да автоматизират проучванията във всички вероятни области, намалявайки едно общоприетоо десетилетие на алгоритмичен прогрес до една година. Това значи, че преходът от човешко равнище към изцяло гигантски ИИ системи ще се случи доста бързо, а силата – и заплахата – на свръхинтелигентността ще бъде голяма.
Ашенбренер твърди, че до 2027 година развиването на изкуствения разсъдък може да доближи по-високо равнище и да надвиши опциите на откривателите и инженерите в региона на изкуствения разсъдък. А това значи, че той ще стартира да се развива независимо „ Тъй като приходите от изкуствения разсъдък порастват бързо, до края на десетилетието ще бъдат вложени трилиони долари в графични процесори, центрове за данни и създаване на мощно електрозахранване вследствие на „ извънредно технократското ускоряване “, се споделя в отчета.
Трудно е да назовем тези думи пресилени, защото GPT-4 (който в най-хубавия случай е разказан като леко плашещ) към този момент превъзхожда професионалните анализатори и усъвършенстваните модели на изкуствен интелект в прогнозирането на бъдещите трендове на приходите без достъп до качествени данни. Съществуват обаче съществени опасения по отношение на доставките на електрическа енергия, което кара OpenAI да вижда нуклеарния синтез като евентуална опция в обозримо бъдеще.
В отчета се показва също, че от ден на ден корпорации ще се причислят към битката за AGI и ще влагат трилиони долари в създаването на сходни интелигентни системи. Всичко това се случва на фона на известията, че Microsoft и OpenAI влагат повече от 100 милиарда $ в план, наименуван Stargate, с цел да пресечен несъразмерната си взаимозависимост от графичните процесори NVIDIA.
Ашенбреннер е уверен, че откакто човечеството се снабди с AGI, то няма да спре и ще продължи да основава още по-мощни логаритми, които освен ще могат да се съпоставят с хората, само че и ще надминат неведнъж техните благоприятни условия. Този преход евентуално ще се случи след 2029 година (нима единствено след 5 години), защото ИИ ще може да автоматизира и форсира своите проучвания и разработки. И защото от ден на ден страни и институции по света се приготвят за приемането на AGI и появяването на гигантски ИИ, секторът ще получи повече корпоративно и държавно финансиране.
„ Преди да се усетим, ще имаме в ръцете си свръхинтелигентност – системи с изкуствен интелект, доста по-интелигентни от човешките, способни на нови, изобретателни и комплицирани държания, които даже не можем да разберем. Може би даже една напълно дребна цивилизация от десетки такива системи ще има ИИ мощност, която въобще не можем да си представим. Тяхната мощност в действителност ще бъде голяма. Изключително комплицираните научни и софтуерни проблеми, над които хората биха се мъчили с десетилетия, ще им се костват явни. Ще бъдем като възпитаници от гимназията, които са се зациклили на нютоновата физика, до момента в който другите към този момент учат квантова механика “, предизвестява създателят на отчета.
Още през 2030 година светът може да се снабди с такава просветеност, която да надмине човешката. А това е доста рисково. Дори няма подобаващи думи за разказване на това, което ще се случи единствено след 5-6 години. И най-после, тези свръхразуми ще могат сами да образоват още по-усъвършенстван изкуствен интелект.
„ Те елементарно ще могат да пишат милиони редове комплициран код, да съхраняват цялата база от кодове в подтекст и няма да прекарват десетилетия (или повече) в инспекция и препроверка на всеки ред код за неточности и оптимизации. Те ще бъдат изцяло способени във всички аспекти на работата си “, декларира някогашният чиновник на OpenAI.
Вече сте се досетили, нали? Всичко това значи, че целият теоретичен и софтуерен прогрес, реализиран от човечеството през ХХ век, ще бъде надминат единствено за едно десетилетие. Това, от своя страна, ще обезпечи уверено и смазващо военно предимство на страната, водач в конкуренцията с оръжията на изкуствения разсъдък.
Използването на свръхинтелигентността против съществуващите към този момент оръжия ще наподобява на конфликт сред актуалните военни сили и кавалеристите от XIX век.
„ Времето директно след появяването на свръхинтелигентността ще бъде един от най-нестабилните, напрегнати, рискови и необуздани интервали в човешката история “, заключава някогашният чиновник на OpenAI.
Последиците от една интелектуална детонация биха били големи Интелектуалният гърмеж и неговите последствия
В края на отчета паниката на Ашербренър става все по-очевидна, защото водещите национални лаборатории за изкуствен интелект третират сигурността като второстепенна задача. Сега те всъщност предават основните секрети на AGI на сребърен поднос, до момента в който надеждният надзор на системите с изкуствен интелект, които са доста по-умни от нас, е неуреден механически проблем.
Всъщност обстановката, която някогашният чиновник на OpenAI разказва в отчета си, може да се съпостави със основаването на атомната бомба, защото конкуренцията за основаване на AGI ще сложи на карта оцеляването на актуалната цивилизация. В последна сметка никой не знае дали ще успеем да избегнем злополуката и самоунищожението по своя път.




