В нова статия главният изпълнителен директор на Google Ерик Шмид,

...
В нова статия главният изпълнителен директор на Google Ерик Шмид,
Коментари Харесай

Ерик Шмидт се обяви срещу „проекта Манхатън“ в областта на изкуствения интелект

В нова публикация основният изпълнителен шеф на Гугъл Ерик Шмид, основният изпълнителен шеф на Scale AI Александър Уанг и Дан Хендрикс, началник на Центъра за сигурност на изкуствения разсъдък, предизвестяват: Съединени американски щати не би трябвало да се стремят към монопол върху свръхразумния изкуствен интелект по сходство на “. Авторите настояват, че сходни опити могат да провокират ответни дейности от страна на Китай, в това число хакерски атаки, които да дестабилизират интернационалните връзки. Вместо да се стремят към свръхинтелигентност, специалистите оферират да се съсредоточат върху ограничение на опасността посредством потребление на защитни тактики и блокиране на рисковите ИИ планове.

„ Проектът „ Манхатън “ в региона на изкуствения разсъдък допуска, че съперниците ще одобряват несъответствието или опасността от заличаване, вместо да работят. Опитите за основаване на свръхоръжия и определяне на световен надзор могат да провокират ответни дейности и да усилят напрежението, разрушавайки стабилността, която тази тактика сякаш пази “, означават създателите.

Статията се появява няколко месеца откакто Конгресът на Съединени американски щати предложи стартирането на „ план Манхатън “ за финансиране на създаването на ИИ, сходно на основаването на атомната бомба през 40-те години на предишния век. Министърът на енергетиката на Съединени американски щати Крис Райт неотдавна съобщи, че страната е „ на прага на нов план „ Манхатън “ в региона на изкуствения разсъдък. Документът слага под въпрос известната измежду американските политици и индустриални водачи концепция, че държавната стратегия за ИИ е най-хубавият метод за конкуренция с Китай.

Шмидт, Уанг и Хендрикс считат, че Съединени американски щати се намират в обстановка, напомняща взаимното обезпечено заличаване, само че в подтекста на изкуствения разсъдък. Както при нуклеарните оръжия, монополът върху мощните ИИ системи може да докара до опасност от предпазен удар от страна на противниците.

Експертите предизвестяват, че Съединени американски щати би трябвало да бъдат внимателни в устрема си към доминиране в тази област. Въпреки че паралелът с нуклеарната опасност може да звучи коренно, международните водачи към този момент преглеждат ИИ като значимо военно преимущество. Пентагонът да вземем за пример твърди, че сходни технологии оказват помощ да се форсира вземането на решения в бойни обстановки.

Шмидт и сътрудниците му оферират концепцията за взаимно обезпечен неуспех на ИИ (Mutual Assured AI Malfunction – MAIM), съгласно която страните могат авансово да блокират рисковите ИИ планове, без да чакат съперниците да ги трансфорат в оръжия.

Съединени американски щати би трябвало да се съсредоточат не върху „ спечелването на конкуренцията за свръхинтелигентност “, а върху възпирането на другите страни да основават свръхразумен изкуствен интелект. Авторите приканват да се разшири арсеналът от хакерски атаки за обезвреждане на рисковите планове и да се ограничи достъпът на съперниците до авангардните чипове на изкуствения разсъдък и моделите с отворен код.

Авторите разказват два метода към политиката за ИИ. „ Песимистите “ считат, че злополуката от развиването на ИИ е неизбежна, и приканват за закъснение на напредъка. „ Щраусите “, въпреки това, са уверени в нуждата от ускорение на развиването и се надяват на най-хубавото. В публикацията се предлага и трети вид: уравновесен метод към развиването на ИИ с акцент върху отбранителните тактики.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР