“Кръстникът на AI“ Йошуа Бенджио: Човечеството е изправено пред катастрофално бъдеще
Й ошуа Бенджио е един от най-цитираните откриватели в региона на изкуствения разсъдък (ИИ). Пионер в основаването на изкуствени невронни мрежи и логаритми за образование. Бенджио дружно с основния академик по изкуствен интелект в " Мета " Ян Лекун и някогашния откривател на Гугъл по изкуствен интелект Джефри Хинтън, получиха премията „ Тюринг “ през 2018 година за основния си принос в региона на ИИ.
Сега обаче Бенджио, който постоянно е именуван дружно с сътрудниците си носители на премията „ Тюринг “ един от „ кръстниците “ на ИИ, е смутен от темповете на развиване и внедряване на неговата технология. Той има вяра, че ИИ може да повреди структурата на обществото и носи непредвидени опасности за хората. Сега Бенджио е ръководител на Международния теоретичен отчет за сигурността на усъвършенствания изкуствен интелект - консултативна група, подкрепена от 30 страни, Европейския съюз и Организацията на обединените народи.
Humanity faces a 'catastrophic' future if we don’t regulate AI, 'Godfather of AI' Yoshua Bengio says
— Live Science (@LiveScience)
Екип на Live Science е разговарял с Йошуа Бенджио в Лондон, където той разяснява рисковете на зараждащата се технология.
Вижте какво сподели той:
Live Science: Вие изиграхте извънредно значима роля в създаването на изкуствените невронни мрежи, само че в този момент призовахте за мораториум върху тяхното развиване и проучвате способи за тяхното контролиране.
Йошуа Бенджио: Трудно е да вървиш против личната си кариера, само че в случай че мислиш рационално за нещата, няма по какъв начин да отречеш опцията за пагубни резултати при създаването на ИИ.
Live Science: Чувствате ли се виновен за неприятното влияние на ИИ? Това нещо тежи ли Ви?
Йошуа Бенджио: Чувствам се длъжен, тъй като гласът ми има някакво въздействие заради признанието, което получих за научната си работа, и по тази причина усещам, че би трябвало да приказвам. Трябва да се вземат значими механически решения, които са част от по-голяма политическа отговорност, в случай че желаеме да разберем по какъв начин да не вредим на хората с построяването на ИИ.
Компаниите на драго сърце биха присъединили тези механически решения, само че сега не знаем по какъв начин да го създадем. Те към момента желаят да получат големите облаги, планувани от достигането на ИИ до равнището на индивида - тъй че сме в неприятна позиция и би трябвало да намерим научни отговори.
Един облик, който употребявам постоянно, е, че като че ли цялото човечество кара по път, който не познава добре, а пред него има мъгла. Вървим към тази мъгла, може да се намираме на планински път и там да има доста рисков проход, който не виждаме задоволително ясно.
И по този начин, какво вършим? Да продължим да се състезаваме напред с вярата, че всичко ще бъде наред, или да се опитаме да измислим софтуерни решения? Политическото решение гласи да се приложи правилото на предпазливостта: намалете скоростта, в случай че не сте сигурни. Техническото решение гласи, че би трябвало да измислим способи да надникнем през мъглата и може би да оборудваме автомобила с защитни средства.
Live Science: И по този начин, кои са най-големите опасности, които машинното образование съставлява в кратковременен и дълготраен проект за човечеството?
Йошуа Бенджио: Хората постоянно споделят, че тези опасности са научна фантастика, само че това не е по този начин. В кратковременен проект към този момент виждаме, че ИИ се употребява в предизборната акция в Съединени американски щати, и това единствено ще се утежнява. Наскоро беше извършено изследване, което сподели, че ChatGPT-4 е доста по-добър от хората в убеждаването - новата версия ще бъде по-добре създадена.
Проведени са и проби за това по какъв начин тези системи могат да оказват помощ на терористите. Неотдавнашната версия на ChatGPT o1 измести този риск от невисок на междинен.
Ако погледнете по-надолу по пътя, когато достигнем равнището на свръхинтелигентност, ще има два съществени риска. Първият е загубата на човешкия надзор, в случай че свръхинтелигентните машини имат цел за самозапазване, техният блян може да бъде да унищожат човечеството.
Другата заплаха, в случай че първият сюжет по някакъв метод не се случи, е хората да употребяват силата на ИИ, с цел да поемат контрола над човечеството в една международна тирания. Може да има по-леки версии на това и то да съществува в спектъра, само че технологията ще даде голяма власт на този, който я управлява.
Live Science: Европейски Съюз издаде закон за ИИ, както и Байдън със своята изпълнителна заповед за ИИ. Доколко държавните управления реагират на тези опасности? Стъпки в вярната посока ли са техните отговори или са настрана от задачата?
Йошуа Бенджио: Мисля, че са стъпки в вярната посока. Така да вземем за пример изпълнителната заповед на Байдън беше максимумът, който Белият дом можеше да направи на този стадий, само че тя не оказва влияние, не принуждава фирмите да споделят резултатите от тестванията си или даже да вършат тези проби.
Трябва да се отървем от този непринуден детайл, фирмите фактически би трябвало да имат проекти за сигурност, да оповестяват резултатите от тестванията си и в случай че не следват най-съвременните правила за отбрана на обществото, могат да бъдат съдени. Мисля, че това е най-хубавото предложение във връзка с законодателството.
Live Science: Невронните мрежи имат голям брой впечатляващи приложения. Но те към момента имат проблеми: мъчно се оправят с неконтролираното образование и не се приспособяват добре към обстановки, които се появяват рядко в данните за образование, които би трябвало да се употребяват в зашеметяващи количества. Със сигурност, както видяхме при самоуправляващите се коли, тези дефекти пораждат и опасности?
Йошуа Бенджио: Първо, желая да поправя нещо, което казахте: те са доста положителни в неконтролираното образование, по принцип това е методът, по който се образоват. Те се образоват по неконтролиран метод - просто гълтам всички данни, които им предоставяте, и се пробват да ги осмислят, това е неконтролирано образование. Това се назовава авансово образование - преди да им дадете задача, ги карате да осмислят всички данни, с които разполагат.
Що се отнася до това от какъв брой данни се нуждаят, да, те се нуждаят от доста повече данни, в сравнение с хората, само че има причини, че еволюцията се е нуждаела от доста повече данни, с цел да стигне до спецификата на това, което е в нашите мозъци. Така че е мъчно да се вършат съпоставения.
Мисля, че има място за нашето рационализиране във връзка с това от какъв брой данни се нуждаят те. Важният миг от позиция на политиката е, че сме постигнали голям прогрес, към момента има голяма бездна сред интелигентността на хората и техните качества, само че не е ясно какъв брой надалеч сме, с цел да преодолеем тази бездна. Политиката би трябвало да се приготви за случая, в който това може да стане бързо - през идващите към пет години.
Live Science: По този въпрос за данните е потвърдено, че моделите на GPT претърпяват колапс, когато употребяват задоволително от личното си наличие. Знам, че сме говорили за риска ИИ да стане свръхинтелигентен и да се разори, само че какво ще кажете за една малко по-фарсова антиутопична опция - да станем подвластни от ИИ, той да лиши промишленостите от работни места, да деградира и да се срине, а ние да останем да събираме частите?
Йошуа Бенджио: Да, не се тормозя от въпроса за срутва на данните, които генерират. Ако се насочите към зареждане на системите със синтетични данни и го извършите интелигентно, по метод, който хората схващат. Няма просто да помолите тези системи да генерират данни и да се образоват върху тях - това е безсмислено от позиция на машинното образование.
Със синтетичните данни можете да я накарате да играе сама против себе си и тя да генерира синтетични данни, които ѝ оказват помощ да взема по-добри решения. Така че аз не се опасявам от това.
Можем обаче да създадем машини, които имат странични резултати, които не предвиждаме. Щом един път станем подвластни от тях, ще е мъчно да издърпаме щепсела и може даже да загубим надзор.
Съществуват качества за машинация в тези системи. Има доста незнайни, които могат да бъдат доста много неприятни. Така че би трябвало да бъдем деликатни.
Live Science: Наскоро „ Гардиън “ заяви, че излъчванията от центровете за данни на Гугъл, Apple, Meta и Microsoft евентуално са с 662% по-високи, в сравнение с те настояват. Bloomberg също по този начин заяви, че центровете за данни с изкуствен интелект подтикват възраждането на инфраструктурата за изкопаеми горива в Съединени американски щати. Възможно ли е същинската краткосрочна заплаха от изкуствения разсъдък да е необратимата щета, която нанасяме на климата, до момента в който го създаваме?
Йошуа Бенджио: Да, изцяло, това е огромен проблем. Не бих споделил, че е наедно с огромните политически разтърсвания, породени от ИИ, във връзка с рисковете за изгубването на човечеството, само че е нещо доста съществено.
Ако погледнете данните, количеството електрическа енергия, належащо за образованието на най-големите модели, нараства експоненциално всяка година. Това е по този начин, тъй като откривателите откриват, че колкото по-големи модели вършиме, толкоз по-умни са те и толкоз повече пари печелят.
Важното тук е, че икономическата стойност на тази просветеност ще бъде толкоз огромна, че заплащането на 10 пъти по-висока цена на електрическата енергия не е проблем за участниците в тази конкуренция. Това значи, че всички ние ще плащаме повече за електрическа енергия.
Ако следваме трендовете, в случай че нещо не се промени, огромна част от електрическата енергия, създавана на планетата, ще отива за образование на тези модели. И, несъмнено, не може всичко да идва от възобновима сила, а ще бъде, тъй като извличаме повече изкопаеми горива от земята. Това е още една причина, заради която би трябвало да забавим темпото.
Live Science: Засегнахме този въпрос по-рано, само че до каква степен сте удовлетворени от работата на учените и политиците за справяне с рисковете?
Йошуа Бенджио: Не мисля, че към момента сме създали нужното във връзка с намаляването на риска. Проведени са доста диалози в международен мащаб, направени са доста законодателни оферти, Организация на обединените нации стартира да мисли за интернационалните контракти - само че би трябвало да отидем доста по-далеч.
Постигнахме огромен прогрес във връзка с повишението на осведомеността и по-доброто схващане на рисковете, както и във връзка с политиците, които мислят за законодателство, само че към момента не сме стигнали дотук. Не сме на стадия, на който можем да се предпазим от пагубни опасности.
През последните шест месеца към този момент има и насрещна мощ която се опълчва на регулаторния прогрес, доста мощни лобита, идващи от малко малцинство от хора, които имат доста власт и пари и не желаят обществото да има никакъв контрол върху това, което вършат с ИИ.
Съществува спор на ползи сред тези, които основават тези машини, чакат да завоюват купища пари и се конкурират между тях с обществеността. Трябва да управляваме този спор, тъкмо както направихме за тютюна, както не успяхме да създадем с изкопаемите горива. Не можем да оставим пазарните сили да бъдат единствената мощ, която да движи напред метода, по който създаваме ИИ.
Live Science: Иронично е, че в случай че всичко се съобщи на пазарните сили, ние в прочут смисъл ще обвържем бъдещето си с един към този момент доста унищожителен логаритъм.
Йошуа Бенджио: Да, тъкмо по този начин.
Live Science: Споменахте лобистките групи, които упорстват машинното образование да остане нерегулирано. Какви са главните им причини?
Йошуа Бенджио: Един от причините е, че това ще забави нововъведенията. Но нали има конкуренция за трансформиране на света допустимо най-бързо? Не, ние желаеме да го създадем по-добър. Ако това значи да предприемем верните стъпки за отбрана на обществеността, както направихме в доста други браншове, това не е добър мотив. Не става въпрос, че ще спрем нововъведенията, можете да насочите напъните си в направления, които построяват принадлежности, които несъмнено ще оказват помощ на стопанската система и благосъстоянието на хората. Така че това е подправен мотив.
Вторият мотив е, че в случай че Западът забави темпото, тъй като желаеме да бъдем внимателни, тогава Китай ще скочи напред и ще употребява технологията против нас. Това е действително безпокойство.
Решението е приблизително състояние, при което беседваме с китайците и реализираме съгласие, което е от съвместен интерес за отбягване на огромни произшествия. Подписваме контракти и работим по технологии за инспекция, с цел да можем да се доверим един на различен, че не вършим нищо рисково.
Припомняме и тази изложба от нашия списък:
* Във видеото:
Не пропускайте най-важните вести - последвайте ни в
Сега обаче Бенджио, който постоянно е именуван дружно с сътрудниците си носители на премията „ Тюринг “ един от „ кръстниците “ на ИИ, е смутен от темповете на развиване и внедряване на неговата технология. Той има вяра, че ИИ може да повреди структурата на обществото и носи непредвидени опасности за хората. Сега Бенджио е ръководител на Международния теоретичен отчет за сигурността на усъвършенствания изкуствен интелект - консултативна група, подкрепена от 30 страни, Европейския съюз и Организацията на обединените народи.
Humanity faces a 'catastrophic' future if we don’t regulate AI, 'Godfather of AI' Yoshua Bengio says
— Live Science (@LiveScience)
Екип на Live Science е разговарял с Йошуа Бенджио в Лондон, където той разяснява рисковете на зараждащата се технология.
Вижте какво сподели той:
Live Science: Вие изиграхте извънредно значима роля в създаването на изкуствените невронни мрежи, само че в този момент призовахте за мораториум върху тяхното развиване и проучвате способи за тяхното контролиране.
Йошуа Бенджио: Трудно е да вървиш против личната си кариера, само че в случай че мислиш рационално за нещата, няма по какъв начин да отречеш опцията за пагубни резултати при създаването на ИИ.
Live Science: Чувствате ли се виновен за неприятното влияние на ИИ? Това нещо тежи ли Ви?
Йошуа Бенджио: Чувствам се длъжен, тъй като гласът ми има някакво въздействие заради признанието, което получих за научната си работа, и по тази причина усещам, че би трябвало да приказвам. Трябва да се вземат значими механически решения, които са част от по-голяма политическа отговорност, в случай че желаеме да разберем по какъв начин да не вредим на хората с построяването на ИИ.
Компаниите на драго сърце биха присъединили тези механически решения, само че сега не знаем по какъв начин да го създадем. Те към момента желаят да получат големите облаги, планувани от достигането на ИИ до равнището на индивида - тъй че сме в неприятна позиция и би трябвало да намерим научни отговори.
Един облик, който употребявам постоянно, е, че като че ли цялото човечество кара по път, който не познава добре, а пред него има мъгла. Вървим към тази мъгла, може да се намираме на планински път и там да има доста рисков проход, който не виждаме задоволително ясно.
И по този начин, какво вършим? Да продължим да се състезаваме напред с вярата, че всичко ще бъде наред, или да се опитаме да измислим софтуерни решения? Политическото решение гласи да се приложи правилото на предпазливостта: намалете скоростта, в случай че не сте сигурни. Техническото решение гласи, че би трябвало да измислим способи да надникнем през мъглата и може би да оборудваме автомобила с защитни средства.
Live Science: И по този начин, кои са най-големите опасности, които машинното образование съставлява в кратковременен и дълготраен проект за човечеството?
Йошуа Бенджио: Хората постоянно споделят, че тези опасности са научна фантастика, само че това не е по този начин. В кратковременен проект към този момент виждаме, че ИИ се употребява в предизборната акция в Съединени американски щати, и това единствено ще се утежнява. Наскоро беше извършено изследване, което сподели, че ChatGPT-4 е доста по-добър от хората в убеждаването - новата версия ще бъде по-добре създадена.
Проведени са и проби за това по какъв начин тези системи могат да оказват помощ на терористите. Неотдавнашната версия на ChatGPT o1 измести този риск от невисок на междинен.
Ако погледнете по-надолу по пътя, когато достигнем равнището на свръхинтелигентност, ще има два съществени риска. Първият е загубата на човешкия надзор, в случай че свръхинтелигентните машини имат цел за самозапазване, техният блян може да бъде да унищожат човечеството.
Другата заплаха, в случай че първият сюжет по някакъв метод не се случи, е хората да употребяват силата на ИИ, с цел да поемат контрола над човечеството в една международна тирания. Може да има по-леки версии на това и то да съществува в спектъра, само че технологията ще даде голяма власт на този, който я управлява.
Live Science: Европейски Съюз издаде закон за ИИ, както и Байдън със своята изпълнителна заповед за ИИ. Доколко държавните управления реагират на тези опасности? Стъпки в вярната посока ли са техните отговори или са настрана от задачата?
Йошуа Бенджио: Мисля, че са стъпки в вярната посока. Така да вземем за пример изпълнителната заповед на Байдън беше максимумът, който Белият дом можеше да направи на този стадий, само че тя не оказва влияние, не принуждава фирмите да споделят резултатите от тестванията си или даже да вършат тези проби.
Трябва да се отървем от този непринуден детайл, фирмите фактически би трябвало да имат проекти за сигурност, да оповестяват резултатите от тестванията си и в случай че не следват най-съвременните правила за отбрана на обществото, могат да бъдат съдени. Мисля, че това е най-хубавото предложение във връзка с законодателството.
Live Science: Невронните мрежи имат голям брой впечатляващи приложения. Но те към момента имат проблеми: мъчно се оправят с неконтролираното образование и не се приспособяват добре към обстановки, които се появяват рядко в данните за образование, които би трябвало да се употребяват в зашеметяващи количества. Със сигурност, както видяхме при самоуправляващите се коли, тези дефекти пораждат и опасности?
Йошуа Бенджио: Първо, желая да поправя нещо, което казахте: те са доста положителни в неконтролираното образование, по принцип това е методът, по който се образоват. Те се образоват по неконтролиран метод - просто гълтам всички данни, които им предоставяте, и се пробват да ги осмислят, това е неконтролирано образование. Това се назовава авансово образование - преди да им дадете задача, ги карате да осмислят всички данни, с които разполагат.
Що се отнася до това от какъв брой данни се нуждаят, да, те се нуждаят от доста повече данни, в сравнение с хората, само че има причини, че еволюцията се е нуждаела от доста повече данни, с цел да стигне до спецификата на това, което е в нашите мозъци. Така че е мъчно да се вършат съпоставения.
Мисля, че има място за нашето рационализиране във връзка с това от какъв брой данни се нуждаят те. Важният миг от позиция на политиката е, че сме постигнали голям прогрес, към момента има голяма бездна сред интелигентността на хората и техните качества, само че не е ясно какъв брой надалеч сме, с цел да преодолеем тази бездна. Политиката би трябвало да се приготви за случая, в който това може да стане бързо - през идващите към пет години.
Live Science: По този въпрос за данните е потвърдено, че моделите на GPT претърпяват колапс, когато употребяват задоволително от личното си наличие. Знам, че сме говорили за риска ИИ да стане свръхинтелигентен и да се разори, само че какво ще кажете за една малко по-фарсова антиутопична опция - да станем подвластни от ИИ, той да лиши промишленостите от работни места, да деградира и да се срине, а ние да останем да събираме частите?
Йошуа Бенджио: Да, не се тормозя от въпроса за срутва на данните, които генерират. Ако се насочите към зареждане на системите със синтетични данни и го извършите интелигентно, по метод, който хората схващат. Няма просто да помолите тези системи да генерират данни и да се образоват върху тях - това е безсмислено от позиция на машинното образование.
Със синтетичните данни можете да я накарате да играе сама против себе си и тя да генерира синтетични данни, които ѝ оказват помощ да взема по-добри решения. Така че аз не се опасявам от това.
Можем обаче да създадем машини, които имат странични резултати, които не предвиждаме. Щом един път станем подвластни от тях, ще е мъчно да издърпаме щепсела и може даже да загубим надзор.
Съществуват качества за машинация в тези системи. Има доста незнайни, които могат да бъдат доста много неприятни. Така че би трябвало да бъдем деликатни.
Live Science: Наскоро „ Гардиън “ заяви, че излъчванията от центровете за данни на Гугъл, Apple, Meta и Microsoft евентуално са с 662% по-високи, в сравнение с те настояват. Bloomberg също по този начин заяви, че центровете за данни с изкуствен интелект подтикват възраждането на инфраструктурата за изкопаеми горива в Съединени американски щати. Възможно ли е същинската краткосрочна заплаха от изкуствения разсъдък да е необратимата щета, която нанасяме на климата, до момента в който го създаваме?
Йошуа Бенджио: Да, изцяло, това е огромен проблем. Не бих споделил, че е наедно с огромните политически разтърсвания, породени от ИИ, във връзка с рисковете за изгубването на човечеството, само че е нещо доста съществено.
Ако погледнете данните, количеството електрическа енергия, належащо за образованието на най-големите модели, нараства експоненциално всяка година. Това е по този начин, тъй като откривателите откриват, че колкото по-големи модели вършиме, толкоз по-умни са те и толкоз повече пари печелят.
Важното тук е, че икономическата стойност на тази просветеност ще бъде толкоз огромна, че заплащането на 10 пъти по-висока цена на електрическата енергия не е проблем за участниците в тази конкуренция. Това значи, че всички ние ще плащаме повече за електрическа енергия.
Ако следваме трендовете, в случай че нещо не се промени, огромна част от електрическата енергия, създавана на планетата, ще отива за образование на тези модели. И, несъмнено, не може всичко да идва от възобновима сила, а ще бъде, тъй като извличаме повече изкопаеми горива от земята. Това е още една причина, заради която би трябвало да забавим темпото.
Live Science: Засегнахме този въпрос по-рано, само че до каква степен сте удовлетворени от работата на учените и политиците за справяне с рисковете?
Йошуа Бенджио: Не мисля, че към момента сме създали нужното във връзка с намаляването на риска. Проведени са доста диалози в международен мащаб, направени са доста законодателни оферти, Организация на обединените нации стартира да мисли за интернационалните контракти - само че би трябвало да отидем доста по-далеч.
Постигнахме огромен прогрес във връзка с повишението на осведомеността и по-доброто схващане на рисковете, както и във връзка с политиците, които мислят за законодателство, само че към момента не сме стигнали дотук. Не сме на стадия, на който можем да се предпазим от пагубни опасности.
През последните шест месеца към този момент има и насрещна мощ която се опълчва на регулаторния прогрес, доста мощни лобита, идващи от малко малцинство от хора, които имат доста власт и пари и не желаят обществото да има никакъв контрол върху това, което вършат с ИИ.
Съществува спор на ползи сред тези, които основават тези машини, чакат да завоюват купища пари и се конкурират между тях с обществеността. Трябва да управляваме този спор, тъкмо както направихме за тютюна, както не успяхме да създадем с изкопаемите горива. Не можем да оставим пазарните сили да бъдат единствената мощ, която да движи напред метода, по който създаваме ИИ.
Live Science: Иронично е, че в случай че всичко се съобщи на пазарните сили, ние в прочут смисъл ще обвържем бъдещето си с един към този момент доста унищожителен логаритъм.
Йошуа Бенджио: Да, тъкмо по този начин.
Live Science: Споменахте лобистките групи, които упорстват машинното образование да остане нерегулирано. Какви са главните им причини?
Йошуа Бенджио: Един от причините е, че това ще забави нововъведенията. Но нали има конкуренция за трансформиране на света допустимо най-бързо? Не, ние желаеме да го създадем по-добър. Ако това значи да предприемем верните стъпки за отбрана на обществеността, както направихме в доста други браншове, това не е добър мотив. Не става въпрос, че ще спрем нововъведенията, можете да насочите напъните си в направления, които построяват принадлежности, които несъмнено ще оказват помощ на стопанската система и благосъстоянието на хората. Така че това е подправен мотив.
Вторият мотив е, че в случай че Западът забави темпото, тъй като желаеме да бъдем внимателни, тогава Китай ще скочи напред и ще употребява технологията против нас. Това е действително безпокойство.
Решението е приблизително състояние, при което беседваме с китайците и реализираме съгласие, което е от съвместен интерес за отбягване на огромни произшествия. Подписваме контракти и работим по технологии за инспекция, с цел да можем да се доверим един на различен, че не вършим нищо рисково.
Припомняме и тази изложба от нашия списък:
* Във видеото:
Не пропускайте най-важните вести - последвайте ни в
Източник: vesti.bg
КОМЕНТАРИ




