Потенциалът и възможните недостатъци на изкуствения интелект (ИИ) и изкуствения

...
Потенциалът и възможните недостатъци на изкуствения интелект (ИИ) и изкуствения
Коментари Харесай

Как един изкуствен интелект, който произвежда кламери, може да унищожи човечеството

Потенциалът и вероятните дефекти на изкуствения разсъдък (ИИ) и изкуствения общ разсъдък (ИОИ) се разискват доста в последно време, значително заради напредъка в огромните езикови модели като ChatGPT на компанията OpenAI.

Някои от сектора даже приканват проучванията на ИИ да бъдат оставени на пауза или даже неотложно прекъснати, базирайки се на вероятния екзистенциален риск за човечеството, в случай че слепешки създадем суперинтелигентност, преди да сме намерили метод да ограничим въздействието й и да направляваме нейните цели.

Въпреки че можем елементарно да си представим по какъв начин ИИ ще ни се ядоса, откакто открие видеоклипове по какъв начин сме тормозили роботите на Boston Dynamics, един мъдрец и водач на Института за бъдещето на човечеството към Оксфордския университет има вяра, че нашата крах може да пристигна от доста по-прост ИИ – предопределен да създава кламери.

Ник Бострьом, прочут със симулационната догадка, както и с работата си в региона на изкуствения разсъдък и етиката към него, излага сюжет, при който на такава усъвършенствана технология се слага простата цел да направи колкото се може повече кламери. Въпреки че това може да наподобява безобидна цел (Бострьом избра този образец точно заради това), той изяснява по какъв начин даже една такава тривиална задача може да докара до апокалипсис.

Даденият образец има за цел да илюстрира по какъв начин една тривиална цел може да докара до непредвидени последствия. Но Бострьом споделя, че тази логичност може да се прояви при всички възможни цели на ИИ, в случай че няма подобаващ надзор върху дейностите му, и прибавя, че „ въпросът е, че неговите дейности няма да извърнат внимание на човешкото богатство “.

Това е вид от по-драматичният завършек на спектъра. Друга опция, препоръчана от Бострьом, обаче е да не седим на пътя на коня.

„ Първоначално конете бяха употребявани да дърпат каруци и плугове, което доста усили полезността им. По-късно обаче те бяха сменени от коли и трактори “, написа той в книгата си „ Суперинтелект: Пътища, рискове, тактики “. „ Когато конете станаха непотребни, доста от тях бяха продадени на месопреработватели, с цел да бъдат направени на кучешка храна, брашно от кости, кожа и лепило. В Съединените щати през 1915 година има към 26 милиона коне. До началото на 50-те години те са към 2 милиона. “

Една пророческа мисъл от Бострьом още през 2003 година е по отношение на това по какъв начин ИИ може да се обърка, като се пробва да обслужва избрани групи, да речем производител на кламери или който и да е негов „ притежател “, а не човечеството като цяло.

„ Рисковете при създаването на суперинтелигентност включват риска да не й бъде сложена преди всичко свръхцелта на филантропията. Един от методите, по който това може да се случи, е, като основателите на й решат да я изградят по този начин, че да служи единствено на определена група хора, вместо на човечеството като цяло “, написа той на уеб страницата си. „ Друг метод това да се случи е като един доброжелателен екип от програмисти направи огромна неточност при проектирането на своята целева система. Това може да докара, с цел да се върнем към по-ранния образец, до суперинтелект, чиято основна цел е производството на кламери – вследствие на което той стартира да трансформира първо цялата Земя, а по-късно и елементи от космоса в уреди за произвеждане на кламери. По-конкретно, това може да докара до това ИИ да стартира работа, която на нас в този момент може да ни се коства като мечтана, само че която в действителност да се окаже пагубна, и детайли от значително значение за човешкия развиване, да се изгубят окончателно.

Затова би трябвало да внимаваме какво желаеме от суперинтелекта, тъй като може да го получим. “

   
Източник: chr.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР