Концепцията за сингулярността – моментът, в който машините ще станат

...
Концепцията за сингулярността – моментът, в който машините ще станат
Коментари Харесай

Трябва ли да се притесняваме за ИОИ?

Концепцията за сингулярността – моментът, в който машините ще станат по-умни от хората – се разисква и дискутира от десетилетия. Но защото развиването на логаритмите за машинно образование докара до появяването на програмен продукт, който може елементарно да преодолее теста на Тюринг, въпросът стана по-актуален отвсякога.

Колко надалеч сме от изкуствения общ разсъдък (ИОИ) и какви опасности крие той?

Съвременният изкуствен интелект (ИИ) се основава на огромни езикови модели (ГЕМ). Текстовите ИИ в действителност не мислят за отговор или не вършат изследване – те вършат чисто и просто: Използвайки данните, на които са подготвени, те откриват коя е най-вероятната дума, която би трябвало да се изпише (понякога най-вероятната буква) след предходна на база какво вие сте им задали като имитация. Това може да докара до доста реалистични и потребни, само че също по този начин и до неверни и рискови резултати, а от време на време и до занимателни. Но както към този момент казахме, машината не мисли, а просто калкулира доста добре.

Тези модели са профилирани в съответна задача, която изисква характерни данни за образованието им, само че в тази област съществува концепцията, че ИОИ е идната стъпка в развиването. Тези логаритми ще извършват доста задания, а освен една, и ще могат да ги извършват наедно с хората. Въпреки че изкуственото схващане може би към момента е надалеч, създаването на ИОИ се преглежда като крайъгълен камък в тази посока. И в някои браншове се твърди, че ни разделят единствено няколко години от него.

„ През идващите едно-две десетилетия наподобява евентуално обособен компютър да има почти изчислителната мощност на човешкия мозък. След това, като добавите още 10/15 години, обособеният компютър ще има почти изчислителната мощност на цялото човешко общество “, казваа Бен Гоерцел, който е основал SingularityNET, чиято цел е да сътвори „ децентрализиран, либерален, приобщаващ и потребен неестествен общ разсъдък “, в лекция на срещата на върха Beneficial AGI Summit 2024.

Има два непосредствени въпроса, произлизащи от това разбиране: Първият е до каква степен реалистична е тази преценка? Песимистите настояват, че оповестяването на иден ИОИ е просто метод да се раздуе още повече балонът на ИИ преди неизбежното му пръсване. Нобеловият лауреат и „ татко на ИИ “ Джефри Хинтън счита, че до ИОИ остават по-малко от 20 години. Йошуа Бенгио, който през 2018 година показа премията „ Тюринг “ с Хинтън и Ян Лекун, пък твърди, че не знаем какъв брой време ще ни отнеме да стигнем до такава степен.

Вторият въпрос е обвързван с заплахите. Хинтън напусна Гугъл предходната година от угриженост за вероятните рискове от изкуствения разсъдък. Също по този начин, съгласно скорошно изследване 1/3 от откривателите на ИИ считат, че технологията може да докара до пагубни резултати. Все отново не трябва да считаме, че е неизбежно някакво бъдеще в жанр „ Терминатор “, в което машини-убийци ловуват хора. Опасностите може да са доста по-обикновени.

Вече има редица обвинявания, че разнообразни ИИ модели са обучавани с крадени творби на изкуството. По-рано тази година OpenAI молеше английския парламент да му позволи да употребява творби, предпазени с авторски права (безплатно), тъй като би било невероятно да образова ГЕМ (и да печели пари) без достъп до тях. Съществуват и екологични опасности. Настоящите ИИ са свързани с удивително висок разход на вода и „ обезпокоителен “ въглероден отпечатък. А по-мощните ИИ ще изискват още повече запаси от свят с бързо изменящ се климат.

Друга опасност е потреблението – само че най-много злоупотребата – с ИИ за основаване на подправени материали за разпространяване на дезинформация. Създаването на подправени изображения за агитация (или други нечисти цели) е извънредно елементарно. И въпреки че в този момент има способи да се открият тези подправени изображения, това ще става все по-трудно.

Правилата и регулациите за изкуствения разсъдък не са нещо, на което се обръща нужното внимание – по тази причина е значимо да сме по-загрижени за обстановката. Все отново има изследвания, които настояват, че не би трябвало да се тормозим прекомерно заради обстоятелството, че колкото повече неприятни резултати от ИИ има в мрежата, толкоз повече те ще се употребяват за образование на нови ИИ, които в последна сметка ще основават по-лоши материали и по този начин нататък, до момента в който ИИ спре да бъде полезен…

Та в известна степен сме по-близо до основаването на изкуствена нелепост, в сравнение с до същински изкуствен интелект.

   
Източник: chr.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР