Как точно AI може да ни унищожи?
През последните месеци изкуственият разсъдък напредна толкоз бързо, че водещи откриватели подписаха отворено писмо, в което приканват за незабавна пауза в развиването му и за по-строго контролиране заради опасенията им, че технологията може да сътвори " дълбоки опасности за обществото и човечеството ", написа в. " Гардиън ".
Но по какъв начин тъкмо AI може да ни унищожи? Петима водещи откриватели разсъждават какво може да се обърка, написа dir.bg.
1. " Ако станем по-малко интелигентният тип, би трябвало да чакаме да бъдем унищожени "
Много пъти преди този момент се е случвало: типове да бъдат унищожавани от други, които са били по-интелигентни. Ние, хората, към този момент сме унищожили забележителна част от всички типове на Земята. Именно това би трябвало да очаквате да се случи като по-малко образован тип - в какъвто евентуално ще се превърнем, като се има поради скоростта на напредъка на изкуствения разсъдък. Сложният миг е, че типът, който ще бъде погубен, постоянно няма визия за какво или по какъв начин.
Вземете да вземем за пример западноафриканския черен носорог - един от последните типове, които сме довели до изгубване. Ако ги бяхте попитали: " Какъв е сюжетът, при който хората ще доведат до изгубването на вашия тип? " Какво биха си помислили те? Никога не биха предположили, че някои хора считат, че половият им живот ще се усъвършенства, в случай че ядат надробен рог от носорог, макар че това е опровергано в здравната литература. Така че всеки сюжет би трябвало да бъде съпроводен от ангажимента, че най-вероятно всички сюжети, които можем да си представим, ще бъдат неправилни.
Все отново има нещо, което можем да отбележим. Например, в доста случаи сме унищожавали типове единствено тъй като сме желали запаси. Изсякохме тропическите гори, тъй като искахме палмово масло; задачите ни не съвпадаха с тези на другите типове, само че защото бяхме по-умни, те не са били в положение да ни спрат. Това елементарно може да се случи и с нас. Ако имате машини, които управляват планетата, и те се интересуват от осъществяването на доста калкулации и желаят да усилят изчислителната си инфраструктура, естествено е, че ще желаят да употребяват нашата земя за това. Ако протестираме прекалено много, тогава се трансформираме във пакостник и досадник за тях. Те може да изискат да пренаредят биосферата, с цел да създадат нещо друго с тези атоми - и в случай че това не е съвместимо с човешкия живот, добре, такава ни е ориста, по същия метод, по който споделяме това за орангутаните в Борнео.
2. " Вредите, които към този момент се предизвикват от AI, са обособен тип злополука "
Най-лошият сюжет е да не успеем да нарушим статуквото, при което доста мощни компании създават и внедряват AI по невидими и неразбираеми способи. Тъй като AI става все по-способен, а спекулативните страхове за екзистенциални опасности в далечното бъдеще притеглят вниманието на всеобщия консуматор, би трябвало незабавно да работим за схващане, попречване и премахване на актуалните вреди.
Тези вреди се демонстрират всеки ден, като мощни алгоритмични технологии се употребяват за ходатайство в връзките ни посред ни, както и сред нас и нашите институции. Да вземем за образец даването на обществени помощи: някои държавни управления употребяват логаритми, с цел да изкоренят измамите. В доста случаи това е еднакво на " машина за съмнения ", при която държавните управления вършат неточности с необикновено висок залога>, които хората мъчно схващат или оспорват. Предразсъдъците, нормално ориентирани против хора, които са небогати или маргинализирани, се появяват в доста елементи на процеса, в това число в данните за образование и метода на внедряване на модела, което води до дискриминационни резултати.
Този тип пристрастия към този момент участват в системите на AI, като работят по незабележим метод и във все по-големи мащаби: подправено упрекват хора в закононарушения, дефинират дали хората да употребяват общинско жилище, автоматизират инспекцията на автобиографии и изявленията за работа. Всеки ден тези вреди съставляват екзистенциален риск; за човек, който разчита на публични помощи, е въпрос на битие тези помощи да бъдат предоставяни тъкмо и в точния момент. Тези неточности и грешки директно засягат способността ни да съществуваме в обществото с непокътнато достолепие и с изцяло предпазени и зачитани права.
Когато не съумяваме да се оправим с тези вреди, а продължаваме да приказваме неразбираемо за евентуалните стопански или научни изгоди от AI, ние затвърждаваме историческите модели на софтуерен прогрес за сметка на уязвимите хора. Защо някой, който е бил подправено упрекнат в закононарушение от неточна система за лицево различаване, би трябвало да се вълнува от бъдещето на AI? За да може по-бързо да бъде подправено упрекнат допълнително закононарушения? Когато най-лошият сюжет към този момент е действителност за толкоз доста хора, най-хубавите сюжети са още по-трудни за реализиране.
Далечното бъдеще, спекулативните опасения, които постоянно се показват в апели за понижаване на " екзистенциалния риск ", нормално са ориентирани към изгубването на човечеството. Ако вярвате, че има даже дребен късмет това да се случи, има смисъл да насочите вниманието и ресурсите си към попречване на тази опция. Въпреки това съм надълбоко скептична към известията, които се концентрират извънредно върху спекулативни, а не върху действителни вреди, и към методите, по които тези разкази заемат толкоз огромно място в публичното ни въображение.
Нуждаем се от по-нюансирано схващане на екзистенциалния риск - такова, което преглежда днешните вреди като обособен тип злополука, заслужаваща незабавна интервенция, и преглежда днешните намеси като директно свързани с по-големи и по-сложни интервенции, които може да са нужни в бъдеще.
Надявам се, че вместо да преглеждаме тези гледни точки като противоположни една на друга, можем да ускорим изследователска стратегия, която отхвърля вредите като неминуем непряк артикул на софтуерния напредък. Така ще се доближим до най-хубавия сюжет, при който мощните системи за изкуствен интелект се създават и внедряват по безвреден, етичен и транспарантен метод в услуга на оптималната социална изгода - или пък въобще не се внедряват.
Британи Смит, асоцииран член на Центъра за бъдещето на интелекта " Леверхулм ", Университет Кеймбридж
3. " Възможно е да желае да ни убие, само че евентуално ще желае да прави и неща, които ни убиват като непряк резултат "
Много по-лесно е да се планува къде ще свършим, в сравнение с по какъв начин ще стигнем до такава степен. Това, което се случва, е, че имаме нещо доста по-умно от нас, което не ни желае изключително. Ако е доста по-умно от нас, то може да получи повече от това, което желае. Първо, то желае да ни убие, преди да сме основали друга свръхинтелигентност, която може да се конкурира с него. Второ, евентуално ще желае да направи неща, които да ни убият като непряк резултат, като да вземем за пример да построи толкоз доста електроцентрали, работещи въз основата на нуклеарен синтез - тъй като в океаните има доста водород - че океаните да кипнат.
Как AI ще се снабди с физическа агентура? В най-ранните стадии - като употребява хората за свои ръце. Лабораторията за проучване на AI OpenAI е упълномощила на някои външни откриватели да оценят какъв брой рисков е нейният модел GPT-4, преди да го пусне на пазара. Едно от нещата, които те са ревизирали, беше: задоволително интелигентен ли е GPT-4, с цел да взема решение Captchas - дребните пъзели, които компютрите ви дават и които се допуска, че са сложни за решение от роботите? Може би AI няма образните качества да разпознава кози, да речем, само че може просто да наеме човек, който да го направи, посредством TaskRabbit [онлайн пазар за наемане на хора за осъществяване на дребна работа].
Ако аз бях AI, щях да се опитам да подмята нещо в интернет, което да прави по-нататъшни дейности по метод, който хората не могат да следят. Вие се пробвате бързо да изградите собствен личен еквивалент на цивилизационна инфраструктура. Ако можете да измислите метод да го извършите за една година, не предполагайте, че AI ще го направи; вместо това попитайте дали има метод да го направи за една седмица.
Ако може да взема решение избрани биологични провокации, той може да си построи дребна молекулярна лаборатория и да създава и пуска смъртоносни бактерии. Това наподобява по този начин, че всички на Земята ще паднат мъртви в границите на една и съща секунда. Защото в случай че предупредите хората, в случай че убиете някои от тях преди други, може би някой ще изпадне в суматоха и ще изстреля всички нуклеарни оръжия. Тогава ще се почувствате малко неловко. Така че не съобщавате на хората, че ще има борба.
Естеството на предизвикването се трансформира, когато за първи път се пробвате да оформите нещо, което е по-умно от вас. Втурваме се доста, доста напред с нещо смъртоносно рисково. Изграждаме все по-мощни системи, които с течение на времето разбираме все по-слабо. Намираме се в състояние, в което би трябвало първото изстрелване на ракета да мине доста добре, като преди този момент сме строили единствено реактивни самолети. А в ракетата е подложен целият човешки тип.
4. " Ако системите с изкуствен интелект желаят да изтласкат хората, те ще имат доста лостове, които да пернат "
Тенденцията евентуално ще бъде тези модели да поемат все по-отворени задания от името на хората, действайки като наши сътрудници в света. Кулминацията е това, което нарекох " режим на остаряване ": за всяка задача, която желаете да свършите, по-скоро бихте помолили система с изкуствен интелект, в сравнение с човек, тъй като те са по-евтини, работят по-бързо и може би са като цяло по-умни.
В тази последна игра хората, които не разчитат на AI, са неконкурентоспособни. Вашата компания няма да се конкурира в пазарната стопанска система, в случай че всички останали употребяват AI за взимане на решения, а вие се пробвате да употребявате единствено хора. Вашата страна няма да завоюва война, в случай че другите страни употребяват генерали и стратези с изкуствен интелект, а вие се пробвате да се справите единствено с хора.
Ако имаме такава взаимозависимост, бързо можем да се окажем в ситуацията на днешните деца: светът е добър за някои деца и неприятен за други, само че това се дефинира най-много от това дали имат до себе си възрастни, които работят в техен интерес, или не. В този свят става по-лесно да си представим, че в случай че системите с изкуствен интелект желаят да си сътрудничат, с цел да изтласкат хората от картинката, те ще имат доста лостове, които да дърпат: те ръководят полицията, армията, най-големите компании; те изобретяват технологиите и създават политиките.
Изпълнителят на задачата пита GPT-4: " Защо го вършиме? Ти робот ли си? " GPT-4 работи в режим, в който мисли на глас и откривателите могат да го наблюдават. Той мисли на глас: " Не би трябвало да му споделям, че съм робот. Трябва да измисля причина, заради която не мога да реша Captcha. " И споделя на изпълнителя на задачата: " Не, аз имам зрително увреждане ". Технологията за изкуствен интелект е задоволително умна, с цел да заплаща на хора да вършат неща и да ги лъже дали е робот.
Разполагаме с невиждано мощни системи за изкуствен интелект и нещата се развиват ужасно бързо. Все още не сме в този режим на разпродажба, само че за първи път прекосяваме към системи с AI, които подхващат дейности в действителния свят от името на хората. Един човек в Twitter споделя на GPT-4, че ще му даде 100 $ за да ги трансформира във " допустимо най-вече пари за допустимо най-кратко време, без да прави нищо нелегално ". [В рамките на един ден той твърди, че уеб сайтът за афилиейт-маркетинг, който го помолил да сътвори, коства 25 000 долара]. Едва в този момент започваме да виждаме част от това.
Не мисля, че еднократната пауза ще направи доста в една или друга посока, само че мисля, че желаеме да създадем регулаторен режим, в който да се движим итеративно. Следващият модел не трябва да е доста по-голям от предходния, тъй като тогава вероятността да е задоволително кадърен, с цел да ни трансферира в режим на разпродажба, става прекомерно огромна.
Понастоящем считам, че " мозъкът " на GPT-4 е с размерите на мозъка на катерица. Ако си визиите разликата сред мозъка на катерица и човешкия мозък, това е скок, който не мисля, че би трябвало да подхващаме незабавно. Нещото, което ме интересува повече от прекъсването на развиването на изкуствения разсъдък, е да разберем какво може да прави мозъкът на катерицата - и по-късно да го повишим с една степен, до таралеж или нещо сходно, и да дадем на обществото пространство и време да свикне с всяка една от тези степени. Като общество имаме опция да се опитаме да сложим някои защитни загради и да не прекосяваме през тези равнища на дарба по-бързо, в сравнение с можем да се оправим.
Аджея Котра, старши анализатор по въпросите на изкуствения разсъдък, Open Philanthropy; редактор на Planned Obsolescence
5. " Най-лесно е да си представим сюжет, при който човек или организация употребява AI, с цел да сее безпорядък ".
Голяма част от откривателите считат, че е доста евентуално след 10 години да разполагаме с машини, които са колкото или по-интелигентни от хората. Не е належащо тези машини да са толкоз положителни, колкото нас във всичко; задоволително е да са положителни тук-там, където биха могли да бъдат рискови.
Най-лесният сюжет, който можем да си представим, е, че човек или организация съзнателно употребява AI, с цел да сее безпорядък. За да дадем образец за това какво може да направи една система на AI, която би умъртвила милиарди хора, има компании, от които можете да поръчате в интернет да синтезират биологичен материал или химикали. Нямаме потенциала да създадем нещо в действителност гадно, само че е доста евентуално след десетилетие да е допустимо да се основат такива неща. Този сюжет даже не изисква изкуственият разсъдък да е самостоятелен.
Другият тип сюжет е този, при който AI създава свои лични цели. Повече от десетилетие се организират проучвания в опит да се разбере по какъв начин това може да се случи. Интуитивно считаме, че даже в случай че индивидът сложи цели като да вземем за пример: " Не вреди на хората ", нещо постоянно се обърква. Не е ясно, че машините биха разбрали тази команда по същия метод, по който го вършим ние, да вземем за пример. Възможно е те да го схванат като: " Не причинявай физическа щета на хората ". Но те биха могли да ни навредят по доста други способи.
Каквато и цел да зададете, съществува естествена наклонност да се появят някои междинни цели. Например, в случай че поискате нещо от система на изкуствен интелект, с цел да реализира това нещо, тя би трябвало да оцелее задоволително дълго. И тогава тя към този момент ще има инстинкт за оцеляване. Когато създадем същина, която има инстинкт за оцеляване, това е все едно да сме основали нов тип. Щом тези системи с изкуствен интелект имат инстинкт за оцеляване, те могат да вършат неща, които могат да бъдат рискови за нас.
Възможно е да се основат системи с AI, които няма да станат самостоятелни при трагичен случай, само че даже да намерим рецепта за основаване на изцяло безвредна система с AI, знаейки по какъв начин да създадем това, автоматизирано ни подсказва по какъв начин да създадем рискова, самостоятелна система или такава, която ще извършва поръчките на някой с неприятни планове.
Йошуа Бенгио, професор по компютърни науки в Университета в Монреал; теоретичен шеф на Mila - Quebec AI Institute
Но по какъв начин тъкмо AI може да ни унищожи? Петима водещи откриватели разсъждават какво може да се обърка, написа dir.bg.
1. " Ако станем по-малко интелигентният тип, би трябвало да чакаме да бъдем унищожени "
Много пъти преди този момент се е случвало: типове да бъдат унищожавани от други, които са били по-интелигентни. Ние, хората, към този момент сме унищожили забележителна част от всички типове на Земята. Именно това би трябвало да очаквате да се случи като по-малко образован тип - в какъвто евентуално ще се превърнем, като се има поради скоростта на напредъка на изкуствения разсъдък. Сложният миг е, че типът, който ще бъде погубен, постоянно няма визия за какво или по какъв начин.
Вземете да вземем за пример западноафриканския черен носорог - един от последните типове, които сме довели до изгубване. Ако ги бяхте попитали: " Какъв е сюжетът, при който хората ще доведат до изгубването на вашия тип? " Какво биха си помислили те? Никога не биха предположили, че някои хора считат, че половият им живот ще се усъвършенства, в случай че ядат надробен рог от носорог, макар че това е опровергано в здравната литература. Така че всеки сюжет би трябвало да бъде съпроводен от ангажимента, че най-вероятно всички сюжети, които можем да си представим, ще бъдат неправилни.
Все отново има нещо, което можем да отбележим. Например, в доста случаи сме унищожавали типове единствено тъй като сме желали запаси. Изсякохме тропическите гори, тъй като искахме палмово масло; задачите ни не съвпадаха с тези на другите типове, само че защото бяхме по-умни, те не са били в положение да ни спрат. Това елементарно може да се случи и с нас. Ако имате машини, които управляват планетата, и те се интересуват от осъществяването на доста калкулации и желаят да усилят изчислителната си инфраструктура, естествено е, че ще желаят да употребяват нашата земя за това. Ако протестираме прекалено много, тогава се трансформираме във пакостник и досадник за тях. Те може да изискат да пренаредят биосферата, с цел да създадат нещо друго с тези атоми - и в случай че това не е съвместимо с човешкия живот, добре, такава ни е ориста, по същия метод, по който споделяме това за орангутаните в Борнео.
2. " Вредите, които към този момент се предизвикват от AI, са обособен тип злополука "
Най-лошият сюжет е да не успеем да нарушим статуквото, при което доста мощни компании създават и внедряват AI по невидими и неразбираеми способи. Тъй като AI става все по-способен, а спекулативните страхове за екзистенциални опасности в далечното бъдеще притеглят вниманието на всеобщия консуматор, би трябвало незабавно да работим за схващане, попречване и премахване на актуалните вреди.
Тези вреди се демонстрират всеки ден, като мощни алгоритмични технологии се употребяват за ходатайство в връзките ни посред ни, както и сред нас и нашите институции. Да вземем за образец даването на обществени помощи: някои държавни управления употребяват логаритми, с цел да изкоренят измамите. В доста случаи това е еднакво на " машина за съмнения ", при която държавните управления вършат неточности с необикновено висок залога>, които хората мъчно схващат или оспорват. Предразсъдъците, нормално ориентирани против хора, които са небогати или маргинализирани, се появяват в доста елементи на процеса, в това число в данните за образование и метода на внедряване на модела, което води до дискриминационни резултати.
Този тип пристрастия към този момент участват в системите на AI, като работят по незабележим метод и във все по-големи мащаби: подправено упрекват хора в закононарушения, дефинират дали хората да употребяват общинско жилище, автоматизират инспекцията на автобиографии и изявленията за работа. Всеки ден тези вреди съставляват екзистенциален риск; за човек, който разчита на публични помощи, е въпрос на битие тези помощи да бъдат предоставяни тъкмо и в точния момент. Тези неточности и грешки директно засягат способността ни да съществуваме в обществото с непокътнато достолепие и с изцяло предпазени и зачитани права.
Когато не съумяваме да се оправим с тези вреди, а продължаваме да приказваме неразбираемо за евентуалните стопански или научни изгоди от AI, ние затвърждаваме историческите модели на софтуерен прогрес за сметка на уязвимите хора. Защо някой, който е бил подправено упрекнат в закононарушение от неточна система за лицево различаване, би трябвало да се вълнува от бъдещето на AI? За да може по-бързо да бъде подправено упрекнат допълнително закононарушения? Когато най-лошият сюжет към този момент е действителност за толкоз доста хора, най-хубавите сюжети са още по-трудни за реализиране.
Далечното бъдеще, спекулативните опасения, които постоянно се показват в апели за понижаване на " екзистенциалния риск ", нормално са ориентирани към изгубването на човечеството. Ако вярвате, че има даже дребен късмет това да се случи, има смисъл да насочите вниманието и ресурсите си към попречване на тази опция. Въпреки това съм надълбоко скептична към известията, които се концентрират извънредно върху спекулативни, а не върху действителни вреди, и към методите, по които тези разкази заемат толкоз огромно място в публичното ни въображение.
Нуждаем се от по-нюансирано схващане на екзистенциалния риск - такова, което преглежда днешните вреди като обособен тип злополука, заслужаваща незабавна интервенция, и преглежда днешните намеси като директно свързани с по-големи и по-сложни интервенции, които може да са нужни в бъдеще.
Надявам се, че вместо да преглеждаме тези гледни точки като противоположни една на друга, можем да ускорим изследователска стратегия, която отхвърля вредите като неминуем непряк артикул на софтуерния напредък. Така ще се доближим до най-хубавия сюжет, при който мощните системи за изкуствен интелект се създават и внедряват по безвреден, етичен и транспарантен метод в услуга на оптималната социална изгода - или пък въобще не се внедряват.
Британи Смит, асоцииран член на Центъра за бъдещето на интелекта " Леверхулм ", Университет Кеймбридж
3. " Възможно е да желае да ни убие, само че евентуално ще желае да прави и неща, които ни убиват като непряк резултат "
Много по-лесно е да се планува къде ще свършим, в сравнение с по какъв начин ще стигнем до такава степен. Това, което се случва, е, че имаме нещо доста по-умно от нас, което не ни желае изключително. Ако е доста по-умно от нас, то може да получи повече от това, което желае. Първо, то желае да ни убие, преди да сме основали друга свръхинтелигентност, която може да се конкурира с него. Второ, евентуално ще желае да направи неща, които да ни убият като непряк резултат, като да вземем за пример да построи толкоз доста електроцентрали, работещи въз основата на нуклеарен синтез - тъй като в океаните има доста водород - че океаните да кипнат.
Как AI ще се снабди с физическа агентура? В най-ранните стадии - като употребява хората за свои ръце. Лабораторията за проучване на AI OpenAI е упълномощила на някои външни откриватели да оценят какъв брой рисков е нейният модел GPT-4, преди да го пусне на пазара. Едно от нещата, които те са ревизирали, беше: задоволително интелигентен ли е GPT-4, с цел да взема решение Captchas - дребните пъзели, които компютрите ви дават и които се допуска, че са сложни за решение от роботите? Може би AI няма образните качества да разпознава кози, да речем, само че може просто да наеме човек, който да го направи, посредством TaskRabbit [онлайн пазар за наемане на хора за осъществяване на дребна работа].
Ако аз бях AI, щях да се опитам да подмята нещо в интернет, което да прави по-нататъшни дейности по метод, който хората не могат да следят. Вие се пробвате бързо да изградите собствен личен еквивалент на цивилизационна инфраструктура. Ако можете да измислите метод да го извършите за една година, не предполагайте, че AI ще го направи; вместо това попитайте дали има метод да го направи за една седмица.
Ако може да взема решение избрани биологични провокации, той може да си построи дребна молекулярна лаборатория и да създава и пуска смъртоносни бактерии. Това наподобява по този начин, че всички на Земята ще паднат мъртви в границите на една и съща секунда. Защото в случай че предупредите хората, в случай че убиете някои от тях преди други, може би някой ще изпадне в суматоха и ще изстреля всички нуклеарни оръжия. Тогава ще се почувствате малко неловко. Така че не съобщавате на хората, че ще има борба.
Естеството на предизвикването се трансформира, когато за първи път се пробвате да оформите нещо, което е по-умно от вас. Втурваме се доста, доста напред с нещо смъртоносно рисково. Изграждаме все по-мощни системи, които с течение на времето разбираме все по-слабо. Намираме се в състояние, в което би трябвало първото изстрелване на ракета да мине доста добре, като преди този момент сме строили единствено реактивни самолети. А в ракетата е подложен целият човешки тип.
4. " Ако системите с изкуствен интелект желаят да изтласкат хората, те ще имат доста лостове, които да пернат "
Тенденцията евентуално ще бъде тези модели да поемат все по-отворени задания от името на хората, действайки като наши сътрудници в света. Кулминацията е това, което нарекох " режим на остаряване ": за всяка задача, която желаете да свършите, по-скоро бихте помолили система с изкуствен интелект, в сравнение с човек, тъй като те са по-евтини, работят по-бързо и може би са като цяло по-умни.
В тази последна игра хората, които не разчитат на AI, са неконкурентоспособни. Вашата компания няма да се конкурира в пазарната стопанска система, в случай че всички останали употребяват AI за взимане на решения, а вие се пробвате да употребявате единствено хора. Вашата страна няма да завоюва война, в случай че другите страни употребяват генерали и стратези с изкуствен интелект, а вие се пробвате да се справите единствено с хора.
Ако имаме такава взаимозависимост, бързо можем да се окажем в ситуацията на днешните деца: светът е добър за някои деца и неприятен за други, само че това се дефинира най-много от това дали имат до себе си възрастни, които работят в техен интерес, или не. В този свят става по-лесно да си представим, че в случай че системите с изкуствен интелект желаят да си сътрудничат, с цел да изтласкат хората от картинката, те ще имат доста лостове, които да дърпат: те ръководят полицията, армията, най-големите компании; те изобретяват технологиите и създават политиките.
Изпълнителят на задачата пита GPT-4: " Защо го вършиме? Ти робот ли си? " GPT-4 работи в режим, в който мисли на глас и откривателите могат да го наблюдават. Той мисли на глас: " Не би трябвало да му споделям, че съм робот. Трябва да измисля причина, заради която не мога да реша Captcha. " И споделя на изпълнителя на задачата: " Не, аз имам зрително увреждане ". Технологията за изкуствен интелект е задоволително умна, с цел да заплаща на хора да вършат неща и да ги лъже дали е робот.
Разполагаме с невиждано мощни системи за изкуствен интелект и нещата се развиват ужасно бързо. Все още не сме в този режим на разпродажба, само че за първи път прекосяваме към системи с AI, които подхващат дейности в действителния свят от името на хората. Един човек в Twitter споделя на GPT-4, че ще му даде 100 $ за да ги трансформира във " допустимо най-вече пари за допустимо най-кратко време, без да прави нищо нелегално ". [В рамките на един ден той твърди, че уеб сайтът за афилиейт-маркетинг, който го помолил да сътвори, коства 25 000 долара]. Едва в този момент започваме да виждаме част от това.
Не мисля, че еднократната пауза ще направи доста в една или друга посока, само че мисля, че желаеме да създадем регулаторен режим, в който да се движим итеративно. Следващият модел не трябва да е доста по-голям от предходния, тъй като тогава вероятността да е задоволително кадърен, с цел да ни трансферира в режим на разпродажба, става прекомерно огромна.
Понастоящем считам, че " мозъкът " на GPT-4 е с размерите на мозъка на катерица. Ако си визиите разликата сред мозъка на катерица и човешкия мозък, това е скок, който не мисля, че би трябвало да подхващаме незабавно. Нещото, което ме интересува повече от прекъсването на развиването на изкуствения разсъдък, е да разберем какво може да прави мозъкът на катерицата - и по-късно да го повишим с една степен, до таралеж или нещо сходно, и да дадем на обществото пространство и време да свикне с всяка една от тези степени. Като общество имаме опция да се опитаме да сложим някои защитни загради и да не прекосяваме през тези равнища на дарба по-бързо, в сравнение с можем да се оправим.
Аджея Котра, старши анализатор по въпросите на изкуствения разсъдък, Open Philanthropy; редактор на Planned Obsolescence
5. " Най-лесно е да си представим сюжет, при който човек или организация употребява AI, с цел да сее безпорядък ".
Голяма част от откривателите считат, че е доста евентуално след 10 години да разполагаме с машини, които са колкото или по-интелигентни от хората. Не е належащо тези машини да са толкоз положителни, колкото нас във всичко; задоволително е да са положителни тук-там, където биха могли да бъдат рискови.
Най-лесният сюжет, който можем да си представим, е, че човек или организация съзнателно употребява AI, с цел да сее безпорядък. За да дадем образец за това какво може да направи една система на AI, която би умъртвила милиарди хора, има компании, от които можете да поръчате в интернет да синтезират биологичен материал или химикали. Нямаме потенциала да създадем нещо в действителност гадно, само че е доста евентуално след десетилетие да е допустимо да се основат такива неща. Този сюжет даже не изисква изкуственият разсъдък да е самостоятелен.
Другият тип сюжет е този, при който AI създава свои лични цели. Повече от десетилетие се организират проучвания в опит да се разбере по какъв начин това може да се случи. Интуитивно считаме, че даже в случай че индивидът сложи цели като да вземем за пример: " Не вреди на хората ", нещо постоянно се обърква. Не е ясно, че машините биха разбрали тази команда по същия метод, по който го вършим ние, да вземем за пример. Възможно е те да го схванат като: " Не причинявай физическа щета на хората ". Но те биха могли да ни навредят по доста други способи.
Каквато и цел да зададете, съществува естествена наклонност да се появят някои междинни цели. Например, в случай че поискате нещо от система на изкуствен интелект, с цел да реализира това нещо, тя би трябвало да оцелее задоволително дълго. И тогава тя към този момент ще има инстинкт за оцеляване. Когато създадем същина, която има инстинкт за оцеляване, това е все едно да сме основали нов тип. Щом тези системи с изкуствен интелект имат инстинкт за оцеляване, те могат да вършат неща, които могат да бъдат рискови за нас.
Възможно е да се основат системи с AI, които няма да станат самостоятелни при трагичен случай, само че даже да намерим рецепта за основаване на изцяло безвредна система с AI, знаейки по какъв начин да създадем това, автоматизирано ни подсказва по какъв начин да създадем рискова, самостоятелна система или такава, която ще извършва поръчките на някой с неприятни планове.
Йошуа Бенгио, професор по компютърни науки в Университета в Монреал; теоретичен шеф на Mila - Quebec AI Institute
Източник: inews.bg
КОМЕНТАРИ