От OpenAI планирали да изградят бункер за края на света в случай на Армагедон
Съоснователят на OpenAI — компанията зад ChatGPT — е предложил да бъде изграден бункер за края на света, в който да бъдат приютени водещите откриватели на компанията при положение на Армагедон, провокиран от появяването на нов тип изкуствен интелект, превъзхождащ човешките умствени качества, написа NY Post.
Иля Суцкевер, който постоянно е определян като " мозъкът " зад ChatGPT, събрал водещи учени на среща през лятото на 2023 година, на която споделил:
" Ние сигурно ще построим бункер, преди да пуснем AGI. "
Това смутило част от присъстващите. Суцкевер използвал извънредно древен термини, като Възнесение, с цел да опише апокалиптичното бъдеще предизвикано от разработваната от OpenAI технология.
Той обяснил, че задачата на този бункер е да отбрани основните учени на OpenAI от възможен геополитически безпорядък или насилствена конкуренция сред международните сили след стартирането на AGI — общ изкуствен интелект (Artificial General Intelligence), който надвишава човешките благоприятни условия.
" Разбира се, " добавил той, " ще бъде по желание дали желаете да сте в бункера. "
Тези изказвания са разказани в книгата " Empire of AI: Dreams and Nightmares in Sam Altman`s OpenAI " на журналистката Карън Хао. Извадка от книгата беше оповестена в списание The Atlantic.
Оказва се, че това не е било индивидуален случай — двама други източници удостоверяват пред Хао, че Суцкевер постоянно е споменавал бункера в диалози вътре в компанията. Един от откривателите на OpenAI даже декларирал:
" Има група хора — в това число Иля — които безусловно имат вяра, че основаването на AGI ще докара до Възнесение. Наистина. "
Макар Суцкевер да е отказал коментар, концепцията за предпазено леговище за учените зад AGI акцентира мащаба на тревогата измежду някои от хората, разработващи най-мощната технология в света.
Суцкевер от дълго време е възприеман като нещо като мистик в OpenAI — прочут с това, че разисква изкуствения разсъдък в метафизични термини.
В същото време той е и един от най-талантливите механически мозъци зад ChatGPT и огромните езикови модели, които изстреляха OpenAI на международната сцена. През последните години Суцкевер почнал да балансира сред ускоряването на AI опциите и нуждата от повече сигурност.
Страховете от цивилизационен срив поради AGI не са лимитирани единствено до Суцкевер.
През май 2023 година основният изпълнителен шеф на OpenAI Сам Алтман подписа обществено писмо, в което се предизвестява, че ИИ може да съставлява " екзистенциален риск " за човечеството. Докато писмото целеше да повлияе на регулаторните диспути, диалозите за бункера демонстрират по-дълбоки и персонални страхове измежду управлението на OpenAI.
Тези вътрешни несъгласия сред опасенията за сигурност и нападателните търговски упоритости на компанията кулминираха по-късно през 2023 година, когато Суцкевер и тогавашният механически шеф Мира Мурати организираха къс прелом в управителния съвет, с който отстраниха Алтман от компанията.
Според източници, централна причина за този ход била убеждението, че Алтман подценява вътрешни протоколи за безопасност и концентрира прекомерно доста власт в ръцете си.
Суцкевер и Мурати декларирали пред борда, че към този момент не имат вяра, че Алтман е кадърен да води организацията отговорно към задачата ѝ.
" Не мисля, че Сам е индивидът, който би трябвало да държи пръста си върху бутона за AGI, " споделил Суцкевер.
Решението на борда обаче просъществувало единствено няколко дни.
Под напън на Microsoft, огромните вложители и даже чиновниците, Алтман бе върнат на поста си. Впоследствие както Суцкевер, по този начин и Мурати напуснаха компанията.
Макар бункерът в никакъв случай да не е бил публично разгласен, той се е трансформирал в знак на рисковата религия и страхове, които изпитват някои от вътрешните хора в областта на изкуствения разсъдък.
The Washington Post е потърсил коментар от OpenAI и Суцкевер.
Иля Суцкевер, който постоянно е определян като " мозъкът " зад ChatGPT, събрал водещи учени на среща през лятото на 2023 година, на която споделил:
" Ние сигурно ще построим бункер, преди да пуснем AGI. "
Това смутило част от присъстващите. Суцкевер използвал извънредно древен термини, като Възнесение, с цел да опише апокалиптичното бъдеще предизвикано от разработваната от OpenAI технология.
Той обяснил, че задачата на този бункер е да отбрани основните учени на OpenAI от възможен геополитически безпорядък или насилствена конкуренция сред международните сили след стартирането на AGI — общ изкуствен интелект (Artificial General Intelligence), който надвишава човешките благоприятни условия.
" Разбира се, " добавил той, " ще бъде по желание дали желаете да сте в бункера. "
Тези изказвания са разказани в книгата " Empire of AI: Dreams and Nightmares in Sam Altman`s OpenAI " на журналистката Карън Хао. Извадка от книгата беше оповестена в списание The Atlantic.
Оказва се, че това не е било индивидуален случай — двама други източници удостоверяват пред Хао, че Суцкевер постоянно е споменавал бункера в диалози вътре в компанията. Един от откривателите на OpenAI даже декларирал:
" Има група хора — в това число Иля — които безусловно имат вяра, че основаването на AGI ще докара до Възнесение. Наистина. "
Макар Суцкевер да е отказал коментар, концепцията за предпазено леговище за учените зад AGI акцентира мащаба на тревогата измежду някои от хората, разработващи най-мощната технология в света.
Суцкевер от дълго време е възприеман като нещо като мистик в OpenAI — прочут с това, че разисква изкуствения разсъдък в метафизични термини.
В същото време той е и един от най-талантливите механически мозъци зад ChatGPT и огромните езикови модели, които изстреляха OpenAI на международната сцена. През последните години Суцкевер почнал да балансира сред ускоряването на AI опциите и нуждата от повече сигурност.
Страховете от цивилизационен срив поради AGI не са лимитирани единствено до Суцкевер.
През май 2023 година основният изпълнителен шеф на OpenAI Сам Алтман подписа обществено писмо, в което се предизвестява, че ИИ може да съставлява " екзистенциален риск " за човечеството. Докато писмото целеше да повлияе на регулаторните диспути, диалозите за бункера демонстрират по-дълбоки и персонални страхове измежду управлението на OpenAI.
Тези вътрешни несъгласия сред опасенията за сигурност и нападателните търговски упоритости на компанията кулминираха по-късно през 2023 година, когато Суцкевер и тогавашният механически шеф Мира Мурати организираха къс прелом в управителния съвет, с който отстраниха Алтман от компанията.
Според източници, централна причина за този ход била убеждението, че Алтман подценява вътрешни протоколи за безопасност и концентрира прекомерно доста власт в ръцете си.
Суцкевер и Мурати декларирали пред борда, че към този момент не имат вяра, че Алтман е кадърен да води организацията отговорно към задачата ѝ.
" Не мисля, че Сам е индивидът, който би трябвало да държи пръста си върху бутона за AGI, " споделил Суцкевер.
Решението на борда обаче просъществувало единствено няколко дни.
Под напън на Microsoft, огромните вложители и даже чиновниците, Алтман бе върнат на поста си. Впоследствие както Суцкевер, по този начин и Мурати напуснаха компанията.
Макар бункерът в никакъв случай да не е бил публично разгласен, той се е трансформирал в знак на рисковата религия и страхове, които изпитват някои от вътрешните хора в областта на изкуствения разсъдък.
The Washington Post е потърсил коментар от OpenAI и Суцкевер.
Източник: dnesplus.bg
КОМЕНТАРИ




