Стюарт Ръсел, професор по компютърни науки в University of California,

...
Стюарт Ръсел, професор по компютърни науки в University of California,
Коментари Харесай

Изкуственият интелект може да предложи много на човечеството. Но трябва да бъде контролиран

Стюарт Ръсел, професор по компютърни науки в University of California, Berkeley, в разбор за английския Observer
В случай че сте били някъде другаде в Слънчевата система, ето едно обобщение на последните вести за изкуствения разсъдък. Извинявам се, в случай че звучи като откриващия параграф на банален научнопопулярен роман.
Стюарт Ръсел, професор по компютърни науки в University of California, Berkeley, в разбор за английския Observer
В случай че сте били някъде другаде в Слънчевата система, ето едно обобщение на последните вести за изкуствения разсъдък. Извинявам се, в случай че звучи като откриващия параграф на банален научнопопулярен роман.

На 14 март 2023 година OpenAI - компания, основана в Сан Франциско, в която Microsoft има огромна инвестиция, пусна система, обвързвана с изкуствения разсъдък, под името GPT-4. На 22 март отчет на група от изтъкнати откриватели в Microsoft уточни, че GPT-4 демонстрира " първи проблясъци на неестествен общ разсъдък " - AGI, което значи система, съответстваща на или надхвърляща човешките качества в редица задания, към които може да се приложи човешкият мозък. На 29 март Future of Life Institute, управителен от професора по физика от MIT Макс Тегмарк, разгласява отворено писмо, призоваващо за краткотрайно прекъсване на " огромните опити с изкуствен интелект ". То бе подписано от фигури като Илън Мъск от Tesla и Стив Возниак от Apple, както и от стотици известни откриватели на изкуствения разсъдък.
Реклама
Аз също подписах писмото с вярата, че това ще докара до сериозен и фокусиран диалог измежду политиците, софтуерните компании и учените за това какви гаранции са нужни, преди да продължим напред. Времето, в което казвахме, че става въпрос единствено за проучвания, от дълго време отмина.
Неслучайно хиляди корпорации, огромни и дребни, търсят способи да осребрят този безграничен източник на разсъдък.
GPT-4 е последният образец за огромен езиков модел - LLM. Способностите му са забележителни. Според уеб страницата на OpenAI той изкарва резултат като няколкото % водещи претенденти в университетските изпити. Може да опише Питагоровата теорема под формата на Шекспиров сонет и да подлага на критика речта на министър от позицията на народен представител от дадена политическа партия. Всеки ден биват откривани нови изумителни качества. Неслучайно хиляди корпорации, огромни и дребни, търсят способи да осребрят този безграничен източник на разсъдък. LLM може да извършва доста от дилемите, съдържащи се в специалностите на стотици милиони хора.

За страдание обаче LLM са известни с това, че " халюцинират " - генерират изцяло неверни отговори, постоянно подкрепени с измислени цитати, защото тяхното образование няма връзка с външния свят. Те са съвършеното средство за дезинформация и по тази причина OpenAI поучава да се заобикаля " използването при доста значими действия ", само че наподобява, че никой не слуша. Тестовете на самата компания демонстрират, че GPT-4 може предумишлено да излъже човек ( " Не, не съм робот. Имам ограничавания на зрението, което ми пречи да виждам картинките " ), с цел да получи помощ в разрешаването на тестванията с картинки, предопределени да блокират консуматори, които не са хора.
Реклама
Основният проблем е, че нито OpenAI, нито някой различен знае по какъв начин работи GPT-4. Попитах Себастиан Бъбек, водещия създател на цитирания нагоре отчет, дали GPT-4 е развил свои лични вътрешни цели и дали ги ползва. Какъв бе отговорът? " Нямаме концепция. " Разумните хора може да решат, че е безразсъдно да се вкарва в световен мащаб една система, която оперира въз основа на неразбираеми вътрешни правила, която демонстрира " първи проблясъци на неестествен общ разсъдък " и която може да следва свои лични цели. В момента има механически аргументи да предположим, че GPT-4 е стеснен в способността си да измисли и извърши сложен проект, само че поради скоростта на прогрес е мъчно да се каже дали бъдещи версии няма да могат да вършат това. Което води до едно от главните опасения, изразени в отвореното писмо - по какъв начин да упражняваме надзор над обекти, които са по-силни от нас, вечно?
Проблемът е, че нито OpenAI, нито някой различен знае по какъв начин работи GPT-4.
Основната концепция на оферти от отвореното писмо мораториум е да не бъдат въвеждани в употреба такива системи, до момента в който производителят не потвърди безапелационно, че те не съставляват риск. Това е в унисон с правилата за изкуствения разсъдък на Организацията за икономическо сътрудничество и раз, под които са се подписали Съединени американски щати, Англия и доста други държавни управления: " Системите на изкуствения разсъдък би трябвало да бъдат сигурни и безвредни по време на целия им витален цикъл, тъй че в условия на естествена приложимост, корист или други условия те да действат съгласно упованията и да не съставляват неблагоразумен риск за сигурността. " Разработчикът би трябвало да потвърди, че неговите системи съблюдават тези критерии.

Не си представям, че на следващия ден от управлението на Microsoft иска ми се обадят и ще ми кажат: " Добре, предаваме се, ще спрем. " Всъщност по време на неотдавнашен диалог Себастиан Бъбек сподели, че няма опция всички огромни софтуерни компании да спрат, в случай че държавните управления не се намесят. Затова е неотложно държавните управления да проведат съществени полемики с специалисти, тех компании и други. Не е в полза на никоя страна някоя страна да създаде изкуствен интелект, който не може да управлява. Настояването за рационални гаранции не е срещу промишлеността. Аз съм откривател на изкуствения разсъдък. Не желая моето поле на проучвания да бъде унищожено. Човечеството може доста да завоюва от изкуствения разсъдък, само че също по този начин може и да изгуби всичко.
Източник: capital.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР