Джаред Каплан: рекурсивният ИИ ще доведе до „експлозия на интелигентността“, но ще излезе извън контрол
Джаред Каплан, основен академик в стартъпа Anthropic, предизвестява, че до 2030 година човечеството ще би трябвало да реши до каква степен самостоятелни би трябвало да бъдат системите с изкуствен интелект. Самоусъвършенстването им може да провокира потребна „ детонация на интелигентността “, само че евентуално ще докара и до загуба на надзор върху технологията и риск от злоупотреби. Ако на изкуствения разсъдък се даде неконтролируема опция да се усъвършенства, в един миг хората ще престанат да схващат неговите цели и полезности. Това неизбежно ще бъде последвано от опити за завладяване на властта посредством подобен гигантски ИИ, защото цялата софтуерна власт ще бъде в ръцете на стеснен кръг играчи.
Джаред Каплан е физик, получил образованието си в Станфорд и Харвард, който е работил в ЦЕРН и университета „ Джон Хопкинс “, преди да се причисли към OpenAI и да стане съосновател на Anthropic, компания с капитал 180 милиарда $ през 2021 година Известен е като един от водещите международни специалисти по ИИ.
Каплан счита, че рекурсивните системи, които могат сами да усъвършенстват логаритмите и качествата си, съставляват фундаментален риск. Ако ИИ стане по-интелигентен от хората и успее да притегли помощта на други ИИ, с цел да форсира развиването си, това може да бъде миг на непредсказуема смяна в салдото на силите сред хората и машините. С такива технологии ще стане по-трудно да се работи и те могат да бъдат употребявани в тяхна щета. Според него решението за по-нататъшното образование на ИИ ще би трябвало да бъде взето сред 2027 и 2030 година
Ученият към този момент е направил редица прогнози. Той счита, че през идващите 2-3 години ИИ ще може да прави множеството офис работа, а синът му, който в този момент е на шест години, „ в никакъв случай няма да надмине ИИ в академичната работа, като да вземем за пример да напише есе или да се яви на изпит по математика “.
Каплан счита, че човечеството би трябвало да бъде квалифицирано за последствията от бързия софтуерен прогрес и вероятната загуба на надзор.
По негова преценка промишлеността като цяло към този момент се оправя сносно с „ привеждането “ на ИИ в сходство с човешките равнища на нравственос и морал – настройвайки моделите към човешките полезности и ползи. Anthropic предизвиква метода на „ конституционния ИИ “, при който държанието на системата се ръководи от набор от предписани правила, въодушевени от интернационалните правни и етични документи. Но откакто човешкото равнище бъде преодоляно, той към този момент не е сигурен, че контролът може да бъде непокътнат.
Първата линия на риска, споделя той, е загубата на схващане за това какво прави системата и с каква цел. Втората е концентрацията на научна и софтуерна власт в ръцете на стеснен кръг играчи, в това число и недобросъвестни.
„ Можете да си визиите един човек, който взема решение: “Искам този изкуствен интелект да бъде мой прислужник, да извършва моята воля “. Предотвратяването на сходни заграбвания на властта е също толкоз значимо, колкото и оправянето с грешките на самите модели “,
казва Каплан.
Сред позитивните страни той акцентира ускоряването на биомедицинските проучвания, подобряването на опазването на здравето и киберсигурността, увеличението на продуктивността, освобождението на време за хората и основаването на благоприятни условия за разцвет.
Според Каплан обществото би трябвало да се включи в полемиките за развиването на изкуствения разсъдък, да притегли интернационалните организации и да управлява темпото и посоката на самостоятелното самоусъвършенстване, с цел да се сведат до най-малко рисковете и да се предотвратят злоупотребите с технологията. Междувременно политиците би трябвало да са добре осведомени с актуалните трендове и вероятности.
(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `




