Повече от 350 от най-известните експерти в света на изкуствения

...
Повече от 350 от най-известните експерти в света на изкуствения
Коментари Харесай

Също толкова опасен ли е изкуственият интелект, колкото атомна бомба и пандемия?

Повече от 350 от най-известните специалисти в света на изкуствения разсъдък, в това число основателят на ChatGPT, предизвестиха за опцията технологията да докара до краха на човечеството и неговото безусловно изгубване.

В взаимно изказване, подкрепено от основните изпълнителни шефове на водещите компании за AI, те споделиха, че смекчаването на този риск „ би трябвало да бъде световен приоритет наред с други опасности от публичен мащаб като пандемии и нуклеарна война “.

Много специалисти показаха угриженост по отношение на риска модели като ChatGPT да бъдат употребявани за разпространяване на дезинформация и киберпрестъпления, както и за причиняване на разстройства в работните места в цялото общество.

Изявлението, координирано от Центъра за сигурност на изкуствения разсъдък на Съединени американски щати (CAIS), признава тези опасения, само че споделя, че би трябвало да бъдат разисквани и по-сериозни, само че по-малко евентуални закани, в това число капацитета, че ускоряването на изкуствения разсъдък може да докара до колапс на цивилизацията.

Някои компютърни учени се притесняват, че свръхинтелигентен AI с ползи, които не са съобразени с тези на хората, може да ни измести или несъзнателно да ни унищожи

Други се тормозят, че прекомерното разчитане на системи, които не разбираме, ни излага на пагубна заплаха, в случай че те въпреки всичко сбъркат.

Дан Хендрикс, шеф на CAIS, сподели, че изказването е метод за „ разкиравен “ за доста откриватели

„ Хората се опасяваха прекалено много да приказват за това по-рано “, сподели той. „ Поради това този проблем се утвърждава като интелектуално достоверна угриженост. “

Сред подписалите документа са Сам Алтман, основен изпълнителен шеф на OpenAI, който сътвори ChatGPT, Джефри Хинтън, учен от университета в Торонто, постоянно описван като кръстник на AI и Демис Хасабис, основен изпълнителен шеф на Гугъл Deepmind, който основава стратегии за побеждаване на най-хубавите играчи на шах. Той беше подписан и от ръководителите на Anthropic AI, Inflection AI и Stability AI и професори по компютърни науки от Кеймбридж, Оксфорд, Харвард, Йейл и Станфорд.

Други учени отхвърлиха изказването като неефикасно. Д-р Мхайри Айткен, откривател по нравственос в Института Алън Тюринг, го назова „ похищение на вниманието “ от по-належащите закани, които произлизат от изкуственият разсъдък.

„ Разказът за супер-интелигентния изкуствен интелект е прочут сюжет от безчет холивудски блокбастъри и това познаване го прави вълнуващ, само че все пак е погрешен “, сподели тя.

Д-р Кариса Велиз, от института по нравственос в AI към Оксфордския университет, беше подозрителна към претекстовете на някои от учените, подписали декларацията.

„ Притеснявам се, че акцентът върху екзистенциалната опасност отвлича вниманието от по-належащи проблеми, като ерозията или гибелта на демокрацията, пред които изпълнителните шефове на избрани компании не желаят да се изправят “, сподели тя. „ AI може да сътвори големи опустошения без екзистенциален риск. “

Хендрикс сподели, че до момента в който тези, които поддържат изказването, се разграничават в мнението си за сериозността на риска, всички имат вяра, че има капацитет за злополука, в случай че с AI се борави с неприятни планове.

„ Нещата се развиват извънредно бързо “, сподели той. „ Тези стратегии непрестанно надвишават нашите упования. В момента сме в конкуренция във въоръжаването с изкуствен интелект в промишлеността, където фирмите имат опасения по отношение на сигурността, само че са принудени да дадат приоритет на това да ги създадат по-мощни, по-бързо. “

Притесненията по отношение на най-сериозните закани от AI варират от опцията той да бъде употребен от хората за планиране на биологични оръжия до самия AI, който основава колапса на цивилизацията.

Хендрикс, който има докторска степен от Калифорнийския университет в Бъркли, сподели, че се тревожи, че хората могат последователно да изгубят надзор, до момента в който нашите полезности не се изравнят с тези на доста великолепен разсъдък.

„ Ние бързо ще автоматизираме света от ден на ден и повече, давайки от ден на ден надзор върху вземането на решения на системите. Ако корпорациите не създадат това, те рискуват да бъдат изпреварени. Това, което се случва, когато AI се състезава един с различен в доста натоварен времеви мащаб, е, че в последна сметка получавате селекция от най-силните. Еволюцията не избира неща, които имат най-хубавите характерности. “

Страхът му е, че ние „ се трансформираме във второразреден тип “

Лорд Рийс от Лъдлоу, кралският астроном и създател на центъра за проучване на екзистенциалния риск към Кеймбриджкия университет, също подписа изказването.

„ Притеснявам се по-малко за някакво суперинтелигентно „ усвояване “ и повече за риска от прекалено разчитане на широкомащабни взаимосвързани системи. Мащабните повреди на електропреносните мрежи, интернет и така нататък могат да доведат до пагубен публичен срив “, сподели той. „ Цялата мрежа има потребност от регулация, тъкмо както новите медикаменти би трябвало да бъдат строго тествани. А регулацията е особено предизвикателство за системите, създадени от мултинационални компании, които могат да заобиколят регулациите, тъкмо както могат да избегнат заслужено равнище на данъчно облагане. “

Хасабис към този момент е казвал, че би бил по-притеснен за света без вероятността за AI. Вчера DeepMind съобщи, че задачата му е да завоюва изгодите, като в същото време смекчи рисковете от изкуствения разсъдък.

„ Изкуственият разсъдък ще има трансформиращо влияние върху обществото и е значимо да разпознаем евентуалните благоприятни условия, опасности и дефекти “, сподели представител на DeepMind.

Карин Жан-Пиер, прессекретар на Белия дом, сподели:

„ Президентът и вицепрезидентът бяха доста ясни по този въпрос “, сподели тя. „ Това е една от най-мощните технологии, които виждаме сега, само че с цел да се възползваме от опциите, които дава, първо би трябвало да смекчим рисковете от нея и това е, върху което се фокусираме тук. “

Етикети: ChatGPTизкуствен интелектучени
Източник: safenews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР