Настоящи и бивши служители на компаниите OpenAI, DeepMind на Google

...
Настоящи и бивши служители на компаниите OpenAI, DeepMind на Google
Коментари Харесай

Експерти: Не се адресират рисковете на AI

Настоящи и някогашни чиновници на фирмите OpenAI, DeepMind на Гугъл и Anthropic разгласиха общо отворено писмо в което предизвестяват, че изкуственият разсъдък (AI) има съществени опасности и не се прави задоволително, с цел да бъдат адресирани. Те приканват фирмите да положат повече старания за мониторинг и надзор над създаването на AI и потреблението на технологията, оповестява The Washington Post.

Служителите, някои от които резервират имената си в загадка, споделят, че " имат вяра в капацитета на AI да предложи невиждани преимущества на човечеството ". Те допълват, че " разбираме, че има и съществени опасности, които пораждат тези технологии ".

Според тях главните опасности са увеличение на неравенството, манипулиране и подвеждаща информация и даже загуба на контрола над самостоятелни AI системи " с капацитет да се доближи до заличаване на човечеството ". Те означават, че самите AI компании признават, че има такива опасности, само че не виждат да се прави задоволително за адресирането им.

" Надяваме се, че рисковете могат да бъдат съответно решени с помощ от научната общественост, институциите и обществото. AI фирмите обаче имат съществени финансови претекстове да заобикалят ефикасен контрол и не имаме вяра, че личните корпоративни структури на надзор са задоволителни да трансформират това ", пишат чиновниците.

Те приканват AI фирмите да одобряват четири правилото. Първият е, че компанията няма да вкарва забрани чиновниците да я подлагат на критика, както и да не пречи на рецензията в името на стопански интерес.

Вторият е компанията да направи неизвестен развой за сегашни и някогашни чиновници, които да могат да подават сигнали за рисковете към управлението и институциите и самостоятелни организации. Третият предложен принцип е компанията да поддържа просвета на отворена рецензия, в това число обществена, с съответни и рационални ограничения за отбрана на комерсиалните секрети и интелектуалната благосъстоятелност.

И последният принцип е компанията да не " отвръща на удара ", когато чиновници споделят обществено информация, в това число конфиденциална, когато става дума за адресиране на риск. С ангажимента, че това се прави, когато предходните правила не са свършили работа, казусът е към този момент оправен или пък въобще не съществуват такива процеси и единственото решение е общественото обявяване.

" Съгласни сме, че неуморният спор е от сериозно значение за развиването на тази технология и ще продължим да работим с държавни управления, гражданското общество и други общности по целия свят ", споделя представител на OpenAI пред CNBC. Компанията добавя, че има развой за анонимно съобщаване на опасности и нова комисия за сигурност, която се води от водачите ѝ.

Не пропускайте най-важните вести - последвайте ни в 
Източник: vesti.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР