Юдковски съветва да се забрани разработката на всичко по-мощно от

...
Юдковски съветва да се забрани разработката на всичко по-мощно от
Коментари Харесай

Експерт видя заплаха: AI може да унищожи човечеството само след две години

Юдковски поучава да се забрани създаването на всичко по-мощно от GPT-4
Експертът по изкуствения разсъдък, Елиезер Юдковски, насочва нова прогноза за бъдещето на човечеството в особено изявление за в. " Гардиън ".

Юдковски е една от основополагащите фигура в развиването на изкуствения разсъдък. Преди повече от 10 години той работи по способи, които да подсигуряват сигурността на технологията. Неговият скептицизъм обаче надвива.

" Ако ме поставите до стената ", споделя той, " и ме принудите да слагам вероятности за нещата, имам възприятието, че сегашната ни оставаща времева линия наподобява повече като пет години, в сравнение с 50 години. Две години, може да са и 10. "

" Машинно изкован апокалипсис, като от " Терминатора " или като адския пейзаж на " Матрицата ", по този начин си показва експертът времето оттатък тези 2 или 10 години. Според него не би трябвало да забравяме какъв брой бързо се развива изкуствения разсъдък.

" Трудността е, че хората не осъзнават ", добавя Юдковски. " Те не могат да осъзнаят скокът, който следва. Скокът от " уау, вижте какво може този бот " до суперинтелект на божествено равнище, прекомерно бърз и прекомерно упорит, с цел да бъде арестуван или стеснен от хората. За да разберете на къде отиват нещата - представете си извънземна цивилизация, която мисли хиляди пъти по-бързо от нас ".

Изкуственият разсъдък е радикално друг от човешкия. Той елементарно може да надмогне рестриктивните мерки на човешкия морал и нравственос. Някои дават образец с хора, които скапват мравуняк, с цел да построят постройка. В случая мравките може да сме ние.

Преди година Юдковски прикани за бомбардиране на центрове за данни, с цел да се спре възхода на AI. Той обаче е един от мнозината критици, които питат - Защо технологиите би трябвало да се преглеждат като неизбежни?

Защо, в случай че рисковете от AI надвишават неведнъж изгодите, би трябвало да продължим да създаваме тази технология?

Юдковски поучава да се забрани създаването на всичко по-мощно от GPT-4. По думите му рестриктивните мерки са един от дребното избавителни лостове на човечеството, по отношение на AI.
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР