Ерик Шмидт се обявява против Проект Манхатън за AGI
Надпреварата за основаване на суперинтелигентен изкуствен интелект към този момент е сравнима с програмата за основаване на атомната бомба през 40-те години на предишния век
В политически документ, оповестен в сряда, някогашният изпълнителен шеф на Гугъл Ерик Шмидт, изпълнителният шеф на Scale AI Александър Уанг и шефът на Центъра за сигурност на изкуствения разсъдък Дан Хендрикс обявиха, че САЩ не трябва да подхващат самодейност сходна на плана " Манхатън " за създаване на изкуствен интелект със " гигантски " качества, прочут като AGI (Artificial General Intelligence), предава TechCrunch.
Документът, озаглавен " Стратегия за суперинтелигентност ", твърди, че нападателният блян към извънреден надзор над суперинтелигентния AI би довел до остра реакция от страна на Китай - евентуално под формата на хакерска атака, която може да дестабилизира интернационалните връзки.
" [Проект Манхатън за AGI] допуска, че противниците ще одобряват трайно неравновесие или даже омницид (унищожение на цялото човечество), вместо да се опитат да го предотвратят ", пишат съавторите. " Това, което стартира като блян към супероръжие и световен надзор, крие риск от враждебни контрамерки и ескалация на напрежението, подкопавайки самата непоклатимост, която тази тактика сякаш цели да подсигурява. "
Документът идва единствено няколко месеца откакто американска конгресна комисия предложи самодейност в жанр " Проект Манхатън " за финансиране на развиването на AGI, основана на програмата за основаване на атомната бомба през 40-те години.
Наскоро американският министър на енергетиката Крис Райт съобщи, че САЩ се намират в " началото на нов Проект Манхатън за AI ", заставайки пред суперкомпютър дружно с един от съоснователите на OpenAI, Грег Брокман.
AGI като оръжие - и по какъв начин да се избегне конкуренцията
Документът Стратегия за суперинтелигентност оспорва концепцията, известна измежду някои американски политици и индустриални водачи, че подкрепяна от държавното управление стратегия за разработка на AGI е най-хубавият метод за конкуренция с Китай.
Според Шмидт, Уанг и Хендрикс, Съединени американски щати се намират в обстановка, наподобяваща нуклеарното обезпечено взаимно заличаване (MAD - Mutually Assured Destruction). Както световните сили не се стремят към монопол върху нуклеарните оръжия, защото това би могло да докара до предпазен удар от съперник, по този начин и Съединени американски щати би трябвало да бъдат внимателни с упоритостта да преобладават в областта на суперинтелигентния AI.
Въпреки че сравняването на AI със нуклеарни оръжия може да наподобява извънредно, международните водачи към този момент го преглеждат като основно военно преимущество. Пентагонът намерено декларира, че AI форсира военните интервенции, в това число така наречен kill chain - процесът на идентифициране и елиминиране на цели.
Шмидт и съавторите вкарват концепцията Взаимно обезпечена AI нередовност (MAIM - Mutual Assured AI Malfunction). Тя предлага страните самодейно да обезвреждат заплашителни AI планове, вместо да изчакват съперниците да ги трансфорат в оръжие.
Вместо да се пробва да " завоюва конкуренцията към суперинтелигентността ", документът предлага Съединени американски щати да разработят тактики за въздържане на други страни от основаването на суперинтелигентен AI. Според създателите, държавното управление би трябвало да разшири арсенала си от хакерски атаки за обезвреждане на евентуално рискови AI планове на непознати страни и да ограничи достъпа на съперници до напреднали AI чипове и отворени AI модели.
Авторите разпознават два съществени лагера в дебата за AI:
" Думърите " - тези, които считат, че пагубни последствия от AI са неизбежни и приканват за закъснение на развиването му. " Щраусите " - тези, които упорстват за ускорение на AI разработките, надявайки се, че всичко ще се подреди от единствено себе си.
Документът предлага трети път - сдържан метод, който се концентрира върху защитни тактики при създаването на AGI.
Тази промяна в позицията на Шмидт е изключително забележителна, защото до момента той беше един от най-големите поддръжници на нападателна AI конкуренция сред Съединени американски щати и Китай.
Само преди няколко месеца той разгласява публикация, в която твърдеше, че появяването на китайския AI модел DeepSeek бележи повратна точка в софтуерната конкуренция сред двете страни.
Въпреки това, администрацията на Тръмп наподобява твърдо решена да продължи с развитието на AI без закъснение. Но както показват създателите, решенията на Америка по отношение на AGI не съществуват във вакуум.
Докато светът следи по какъв начин Съединени американски щати изтласкват границите на изкуствения разсъдък, Шмидт и съавторите му оферират по-разумен, защитителен метод.
В политически документ, оповестен в сряда, някогашният изпълнителен шеф на Гугъл Ерик Шмидт, изпълнителният шеф на Scale AI Александър Уанг и шефът на Центъра за сигурност на изкуствения разсъдък Дан Хендрикс обявиха, че САЩ не трябва да подхващат самодейност сходна на плана " Манхатън " за създаване на изкуствен интелект със " гигантски " качества, прочут като AGI (Artificial General Intelligence), предава TechCrunch.
Документът, озаглавен " Стратегия за суперинтелигентност ", твърди, че нападателният блян към извънреден надзор над суперинтелигентния AI би довел до остра реакция от страна на Китай - евентуално под формата на хакерска атака, която може да дестабилизира интернационалните връзки.
" [Проект Манхатън за AGI] допуска, че противниците ще одобряват трайно неравновесие или даже омницид (унищожение на цялото човечество), вместо да се опитат да го предотвратят ", пишат съавторите. " Това, което стартира като блян към супероръжие и световен надзор, крие риск от враждебни контрамерки и ескалация на напрежението, подкопавайки самата непоклатимост, която тази тактика сякаш цели да подсигурява. "
Документът идва единствено няколко месеца откакто американска конгресна комисия предложи самодейност в жанр " Проект Манхатън " за финансиране на развиването на AGI, основана на програмата за основаване на атомната бомба през 40-те години.
Наскоро американският министър на енергетиката Крис Райт съобщи, че САЩ се намират в " началото на нов Проект Манхатън за AI ", заставайки пред суперкомпютър дружно с един от съоснователите на OpenAI, Грег Брокман.
AGI като оръжие - и по какъв начин да се избегне конкуренцията
Документът Стратегия за суперинтелигентност оспорва концепцията, известна измежду някои американски политици и индустриални водачи, че подкрепяна от държавното управление стратегия за разработка на AGI е най-хубавият метод за конкуренция с Китай.
Според Шмидт, Уанг и Хендрикс, Съединени американски щати се намират в обстановка, наподобяваща нуклеарното обезпечено взаимно заличаване (MAD - Mutually Assured Destruction). Както световните сили не се стремят към монопол върху нуклеарните оръжия, защото това би могло да докара до предпазен удар от съперник, по този начин и Съединени американски щати би трябвало да бъдат внимателни с упоритостта да преобладават в областта на суперинтелигентния AI.
Въпреки че сравняването на AI със нуклеарни оръжия може да наподобява извънредно, международните водачи към този момент го преглеждат като основно военно преимущество. Пентагонът намерено декларира, че AI форсира военните интервенции, в това число така наречен kill chain - процесът на идентифициране и елиминиране на цели.
Шмидт и съавторите вкарват концепцията Взаимно обезпечена AI нередовност (MAIM - Mutual Assured AI Malfunction). Тя предлага страните самодейно да обезвреждат заплашителни AI планове, вместо да изчакват съперниците да ги трансфорат в оръжие.
Вместо да се пробва да " завоюва конкуренцията към суперинтелигентността ", документът предлага Съединени американски щати да разработят тактики за въздържане на други страни от основаването на суперинтелигентен AI. Според създателите, държавното управление би трябвало да разшири арсенала си от хакерски атаки за обезвреждане на евентуално рискови AI планове на непознати страни и да ограничи достъпа на съперници до напреднали AI чипове и отворени AI модели.
Авторите разпознават два съществени лагера в дебата за AI:
" Думърите " - тези, които считат, че пагубни последствия от AI са неизбежни и приканват за закъснение на развиването му. " Щраусите " - тези, които упорстват за ускорение на AI разработките, надявайки се, че всичко ще се подреди от единствено себе си.
Документът предлага трети път - сдържан метод, който се концентрира върху защитни тактики при създаването на AGI.
Тази промяна в позицията на Шмидт е изключително забележителна, защото до момента той беше един от най-големите поддръжници на нападателна AI конкуренция сред Съединени американски щати и Китай.
Само преди няколко месеца той разгласява публикация, в която твърдеше, че появяването на китайския AI модел DeepSeek бележи повратна точка в софтуерната конкуренция сред двете страни.
Въпреки това, администрацията на Тръмп наподобява твърдо решена да продължи с развитието на AI без закъснение. Но както показват създателите, решенията на Америка по отношение на AGI не съществуват във вакуум.
Докато светът следи по какъв начин Съединени американски щати изтласкват границите на изкуствения разсъдък, Шмидт и съавторите му оферират по-разумен, защитителен метод.
Източник: dnesplus.bg
КОМЕНТАРИ




