Десетки високопоставени представители на бизнеса и политиката призовават световните лидери

...
Десетки високопоставени представители на бизнеса и политиката призовават световните лидери
Коментари Харесай

Внукът на Опенхаймер призова за спешни мерки срещу „AI катастрофата“

Десетки високопоставени представители на бизнеса и политиката приканват международните водачи да се оправят с екзистенциалните опасности, свързани с изкуствения разсъдък и климатичната рецесия.

Основателят на Virgin Group Ричард Брансън, дружно с някогашния общоприет секретар на Организация на обединените нации Бан Ки-мун и Чарлз Опенхаймер - внук на американския физик Дж. Робърт Опенхаймер, прочут като „ бащата на атомната бомба “, станаха следващите, откакто подписаха отворено писмо, в което приканват за дейности против ескалиращите рискове от климатичната рецесия, пандемиите, нуклеарните оръжия и неуправляемия изкуствен интелект.

В посланието се международните водачи са призовани да възприемат дълготрайна тактика с " решителност да позволяват неразрешими проблеми, а освен да ги ръководят, мъдрост да вземат решения, учредени на научни доказателства, разсъдък, и примирение да изслушват всички наранени ".

Подписалите се приканват за незабавни многостранни дейности, в това число посредством финансиране на прехода от изкопаеми горива, сключване на обективен контракт за пандемиите, обновяване на договарянията за нуклеарните оръжия и създаване на световно ръководство, належащо за превръщането на изкуствения разсъдък в действие на положителното.

Писмото беше оповестено в четвъртък от The Elders - неправителствена организация, основана от някогашния южноафрикански президент Нелсън Мандела и Брансън, с цел да се занимава с световните проблеми на човешките права и да се застъпва за международния мир. То е подкрепено и от Future of Life Institute - организация с нестопанска цел, основана от космолога от Масачузетския софтуерен институт Макс Тегмарк и съоснователя на Skype Джаан Талин, която има за цел да насочи трансформиращите технологии като изкуствения разсъдък към изгоди за хората и към отбягване на огромни опасности.

Тегмарк разяснява, представен от CNBC, че " Старейшините " и неговата организация желаят да покажат, че въпреки и самичък по себе си да не е " злобен ", AI остава " инструмент ", който може да докара до тежки последствия, в случай че бъде оставен да се развива бързо в ръцете на несъответствуващи хора.

" Старата тактика за реализиране на положителни приложения, когато става въпрос за нова технология, постоянно е била да се учим от грешките ", споделя Тегмарк в изявление за медията. " Изобретихме огъня, а по-късно изобретихме пожарогасителя. Изобретихме автомобила, а по-късно се поучихме от грешките си и изобретихме защитния колан, светофарите и рестриктивните мерки на скоростта. "

„ Инженерна сигурност “

" Но когато технологията премине първичните прагове и мощността ѝ нарасне, тази тактика за учене от грешките се трансформира в злополука, тъй като следствията могат да бъдат ужасни ", прибавя той. " Аз самият мисля за това като за инженерна сигурност. Изпратихме хора на Луната, само че доста деликатно обмислилхме всички неща, които могат да се объркат, преди този момент и по тази причина в последна сметка всичко мина добре. Това беше инженеринг на сигурността. И ние се нуждаем от този тип инженерна сигурност и за нашето бъдеще - с нуклеарните оръжия, със синтетичната биология, с все по-мощния изкуствен интелект. "

Писмото беше оповестено преди Мюнхенската конференция по сигурността, на която държавни чиновници, военни водачи и дипломати ще разискват интернационалната сигурност на фона на ескалиращите световни въоръжени спорове, в това число войните сред Русия и Украйна и Израел и „ Хамас “.

Миналата година Future of Life Instituteс също разгласява отворено писмо, подкрепено от водещи фигури, измежду които шефът на Tesla Илон Мъск и съоснователят на Apple Стив Возняк, в което приканва лабораториите за изкуствен интелект като OpenAI да преустановят работата по образованието на огромните езикови модели, които са по-мощни от GPT-4 - понастоящем най-напредналия изкуствен интелект на компанията на Сам Алтман.

Технологичните водач приканиха за прекъсване на създаването на AI, с цел да се избегне " загуба на надзор ", която може да докара до всеобщо заличаване на работни места и овластяване на компютрите.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР