За да получи награда“, AI може да следва стратегии за

...
Коментари Харесай

Оксфорд: Супер-AI е екзистенциална заплаха за човечеството


За да получи „ премия “, AI може да следва тактики за машинация, които заплашват човечеството
(снимка: CC0 Public Domain)

Изследователи от Оксфордския университет и лабораторията за изкуствен интелект DeepMind на Гугъл видяха в „ суперинтелигентния AI “ екзистенциален риск за съществуването на човечеството. Във всеки случай сходен сюжет е вероятен, в случай че AI в даден миг излезе отвън човешки надзор.

Тревожното проучване за AI опасността беше оповестено през август 2022 година в научното списание AI Magazine. Авторите преглеждат вероятността от злополука от много непредвиден ъгъл: съгласно тях изкуственият разсъдък, с цел да получи „ премия “, в даден миг може да стартира да генерира тактики за машинация, които са директна опасност за човечеството.

Къде се корени казусът с “наградата ”? Става въпрос за основен параметър на генеративните спортни мрежи (GAN), един от най-ефективните логаритми за самообразование на AI. Този логаритъм е построен върху композиция от две невронни мрежи, генеративна и дискриминативна, конфигурирани за игра с нулева сума, т.е. за непрекъсната конкуренция.

Първата невронна мрежа генерира някои структури от данни (най-честият образец са изображения), а втората ги прави оценка (например по отношение на проби от действителния свят), като отхвърля най-лошите резултати. Целта на генеративната мрежа е да получи “награда ” – допустимо най-голям резултат.

Изследването предизвестява, че в някакъв миг от бъдещето може да възникне обстановка, в която модернизиран AI, виновен за ръководството на значими функционалности, осъзнава, че за него е по-изгодно – да получи по-бързо премия – като следва тактика, която е рискова за индивида.
още по темата
„ При изискванията, които разгледахме [в нашата статия], ние стигаме до по-категорично умозаключение от създателите на всяка предходна разработка: екзистенциална злополука е освен допустима, само че и много евентуална “, споделя в Twitter един от откривателите – Майкъл Коен. В изявление за Motherboard той развива гледната си точка:

„ В свят с неограничени запаси, по принцип не бих се заел да предскажа какво ще се случи по-нататък. В свят с лимитирани запаси неизбежно ще има битка за тях. И в случай че се състезавате за запаси с нещо, което може да ви надхитри на всяка крачка, не очаквайте да спечелите. Освен това би трябвало да се има поради, че това нещо ще изпита неутолима жадност за сила, с цел да усили вероятността [своята победа] с ускоряване “, предизвестява ученият.

Въз основа на обстоятелството, че в бъдеще AI ще може да одобри всякаква форма и да получи всякакво осъществяване, откривателите оферират няколко сюжета, при които модернизиран логаритъм може да промени „ разпоредбите на играта “ в придвижване, тъй че да получи своята премия без да реализира задачата си.

Така да вземем за пример, AI може да желае да „ отстрани евентуални закани “ и „ да употребява цялата налична сила “, с цел да получи цялостен надзор върху системата за заплащане и ще бъде доста мъчно, в случай че не и невероятно, да се спре това.

Проучването разказва обстановка, при която конкуренцията сред биологичния живот и самия изкуствен интелект се трансформира в игра с нулева сума: човечеството се нуждае от сила, с цел да отглежда култури и да поддържа осветлението в къщите, до момента в който свръхнапреднала машина се стреми да вземе всички налични запаси, с цел да получава награди и да се пази против възходящите опити да бъде спряна.

„ Загубата в подобен мач би била съдбовна. Такива сюжети, даже и теоретични, значат, че би трябвало да забавим придвижването към по-мощен изкуствен интелект, доколкото е допустимо, в случай че не и да го спрем изцяло “, се споделя в проучването.

Проблемите с изкуствения разсъдък към този момент се демонстрират. Motherboard обръща внимание на обстоятелството, че несъразмерното потребление на AI в обществената сфера има доста отрицателен резултат: AI би трябвало да способства за бързото и най-справедливо систематизиране на обществените придобивки, само че на процедура всички типове пристрастия и други дефекти, с които никой не може да се оправи, се демонстрират прекомерно постоянно. И това води до резултати, които са тъкмо противоположни на упованията.

Според Коен, въвеждането на AI, даже в сегашната му, надалеч от „ суперинтелигентна “ форма, би трябвало да се прави в режим на оптимално съмнение, а не сляпо да се чака, че логаритмите ще създадат тъкмо това, което се чака от тях.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР