Бивши и настоящи служители на OpenAI публикуваха отворено писмо, в

...
Бивши и настоящи служители на OpenAI публикуваха отворено писмо, в
Коментари Харесай

Вътрешен източник от OpenAI: Има 70% шанс AI да унищожи или да навреди на човечеството

Бивши и сегашни чиновници на OpenAI разгласиха отворено писмо, в което настояват, че им се забранява да повдигат въпроси, свързани с сигурността на изкуственият разсъдък, предава Futurism.

Един от подписалите се направи още по-ужасяваща прогноза: възможностите AI да унищожи или пагубно да навреди на човечеството, са обилни.

В изявление за The New York Times някогашният откривател на OpenAI Даниел Кокотайло упрекна компанията, че подценява монументалните опасности, подбудени от изкуствения общ разсъдък (AGI), тъй като хората, които вземат решения, са толкоз очаровани от неговите благоприятни условия.

" OpenAI в действителност се вълнува от построяването на AGI ", сподели Кокотайло, " и те неразумно се надпреварват да бъдат първи там. "

Според Кокотайло обаче има късмет от 70% AGI да докара до края на човешката цивилизация.

31-годишният Кокотайло сподели пред NYT, че откакто се включил към OpenAI през 2022 година ибил помолен да предвижда напредъка на технологията. Той се убедил, че индустрията ще реализира AGI до 2027 година, само че и че има огромна възможност, че това да докара до злополука.

Както е маркирано в отвореното писмо, Кокотайло и неговите съидейници - в това число някогашни и сегашни чиновници в Гугъл DeepMind и Anthropic, както и Джефри Хинтън, по този начин нареченият " кръстник на AI " - настояват, че обществото би трябвало да е наясно с рисковете от изкуствения разсъдък.
 
Кокотайло стана толкоз уверен, че изкуственият разсъдък ще се трансформира във фундаментална опасност, че в последна сметка персонално прикани основния изпълнителен шеф на OpenAI Сам Алтман да отдели повече време за внедряване на бариери, с цел да ръководи технологията, вместо да продължи да я прави по-умна.

Изглежда Алтман изразил единодушие на думи, само че на процедура не желал да забави темповете на развиване за сметка на сигурността.

Уморен, Кокотайло напусна OpenAI през април, като сподели на екипа си в имейл, че е " изгубил убеденост, че OpenAI ще се държи отговорно ", защото продължава да се пробва да построи AI съвсем на човешко равнище.

" Светът не е подготвен и ние не сме подготвени ", написа той в имейла си, който беше споделен с NYT. " И съм угрижен, че бързаме напред без значение от това и рационализираме дейностите си. "

Отговорът на OpenAI не закъсня, въпреки че съгласно експертите на процедура не споделя нищо.

" Гордеем се с нашия опит в даването на най-способните и най-безопасни AI системи и имаме вяра в нашия теоретичен метод за справяне с риска ", се споделя в изказване на компанията след публикуването на тази публикация. " Съгласни сме, че строгият спор е от решаващо значение поради смисъла на тази технология и ще продължим да се ангажираме с държавните управления, гражданското общество и други общности по света. "

" Това е и повода, заради която имаме благоприятни условия за чиновниците да изразят своите опасения, в това число анонимна гореща линия за честност и Комитет за сигурност и сигурност, управителен от членове на нашия ръб и ръководители по сигурността от компанията ", продължава изказването.
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР