Сам Олтман смята, че технологията, залегнала в основата на най-известния

...
Сам Олтман смята, че технологията, залегнала в основата на най-известния
Коментари Харесай

AI може да убие всички ни: Сам Олтман

Сам Олтман счита, че технологията, залегнала в основата на най-известния артикул на компанията му, може да докара до края на човешката цивилизация.

През май основният изпълнителен шеф на OpenAI Сам Олтман влезе в залата за чуване на подкомисията на Сената във Вашингтон със незабавна молба към законодателите: Създаване на премислени разпореждания, които да одобряват мощното заричане на изкуствения разсъдък, като в същото време понижат риска той да надвие човечеството. Това беше решителен миг за него и за бъдещето на изкуствения разсъдък.

С стартирането на ChatGPT на OpenAI в края на предходната година 38-годишният Олтман за една нощ се трансформира в плакатното дете на новата група принадлежности за изкуствен интелект, които могат да генерират изображения и текстове в отговор на подкани от потребителя - технология, наречена генеративен изкуствен интелект.

Скоро след стартирането си ChatGPT се трансформира в нарицателно име, съвсем синоним на самия ИИ. Главните изпълнителни шефове го използваха за правене на имейли, хора създаваха уеб страници без предходен опит в кодирането и той мина изпити в юридически и бизнес учебни заведения. Той има капацитета да направи гражданска война в съвсем всяка промишленост, в това число в образованието, финансите, селското стопанство и опазването на здравето - от интервенциите до създаването на лекарствени ваксини.

Но същите тези принадлежности провокират опасения за всичко - от измами в учебните заведения до изместване на служащите - и даже за екзистенциална опасност за човечеството. Възходът на изкуствения разсъдък, да вземем за пример, накара икономистите да предупредят за пазара на труда. Според оценки на Goldman Sachs до 300 милиона работни места на цялостно работно време по света в последна сметка могат да бъдат автоматизирани по някакъв метод от генеративния ИИ. Около 14 млн. позиции могат да изчезнат единствено през идващите пет години, съгласно отчет на Световния стопански конгрес от април.

В показанията си пред Конгреса Олтман съобщи, че капацитетът ИИ да бъде употребен за манипулиране на гласоподаватели и за ориентиране на дезинформация са измежду " областите, които ме тревожат най-вече ".

Две седмици след чуването Олтман се причисли към стотици водещи учени, откриватели и бизнес водачи, които подписаха писмо, в което се споделя: " Намаляването на риска от изгубване, породено от ИИ, би трябвало да бъде световен приоритет наред с други опасности от публичен мащаб като пандемии и нуклеарна война. "

Предупреждението беше необятно отразено в пресата, като някои изрекоха мнение, че то демонстрира нуждата от по-сериозно отношение към сходни апокалиптични сюжети. То също по този начин акцентира една значима динамичност в Силициевата котловина: В същото време се надпреварват да влагат в тази технология и да я внедряват в артикули, които доближават до милиарди хора.
" Кевин Бейкън от Силициевата котловина

Въпреки че Алтман, дълготраен бизнесмен и вложител в Силициевата котловина, през предходните години значително оставаше отвън светлината на прожекторите, през последните месеци погледите се насочиха към него като към детето от плаката на революцията в региона на ИИ. Това също по този начин го изложи на правосъдни разногласия, регулаторен надзор и както похвали, по този начин и осъждания по целия свят.

В оня ден пред подкомисията на Сената обаче Олтман дефинира сегашния взрив на технологията като основен миг.

" Дали [ИИ] ще бъде като печатарската преса, която разпространяваше знанието, силата и образованието необятно в целия пейзаж, което даваше опция на елементарните, всекидневни хора, което водеше до по-голямо преуспяване, което водеше на първо място до две по-големи свободи? ", сподели той. " Или ще бъде по-скоро като атомната бомба - голям софтуерен пробив, само че последствията (тежки, ужасни) не престават да ни преследват и до през днешния ден? "

Олтман от дълго време се показва като човек, който е наясно с рисковете, свързани с изкуствения разсъдък, и дава обещание да върви напред отговорно. Той е един от няколкото основни изпълнителни шефове на софтуерни компании, които се срещнаха с водачите на Белия дом, в това число вицепрезидента Камала Харис и президента Джо Байдън, с цел да подчертаят смисъла на етичното и отговорно развиване на ИИ.

Други желаят Олтман и OpenAI да работят по-предпазливо. Илон Мъск, който оказа помощ за основаването на OpenAI, преди да се отдели от групата, и десетки софтуерни водачи, професори и откриватели в приканиха лабораториите за изкуствен интелект като OpenAI да спрат образованието на най-мощните системи за изкуствен интелект най-малко за шест месеца, базирайки се на " дълбоки опасности за обществото и човечеството ". (В същото време някои специалисти се питат дали подписалите писмото не се стремят да запазят конкурентното си преимущество пред други компании).

Олтман съобщи, че е склонен с някои елементи от писмото, в това число с това, че " летвата за сигурност би трябвало да се увеличи ", само че сподели, че паузата няма да бъде " най-благоприятен метод " за справяне с провокациите.

Въпреки това OpenAI е сложила крайници си крепко върху педала на газта. Неотдавна се заяви, че OpenAI и дизайнерът на iPhone Джони Айв водят договаряния за набиране на 1 милиарда $ от японския конгломерат SoftBank за устройство с изкуствен интелект, което да размени смарт телефона.

 Онези, които познават Олтман, го разказват като човек, който прави прозорливи залози и даже е именуван " стартъп Йода " или " Кевин Бейкън от Силициевата котловина ", защото е работил с съвсем всички в промишлеността. Аарон Леви, основен изпълнителен шеф на корпоративната облачна компания Box и дълготраен другар на Олтман, който е пристигнал дружно с него в света на стартъпите, споделя пред CNN, че Олтман е " интроспективен " и желае да разисква хрумвания, да получава разнообразни гледни точки и безпределно предизвиква противоположната връзка за всичко, върху което работи.

" Винаги съм считал, че той е извънредно самокритичен към концепциите си и е подготвен да одобри всякаква противоположна връзка по всяка тематика, с която се е занимавал през годините ", сподели Леви.

Но Бърн Елиът, анализатор в Gartner Research, означи известното факсимиле: има риск да поставите всичките си яйца в една кошница, без значение какъв брой огромно е доверието ви в нея.

" Много неща могат да се случат с една кошница ", добави той.

``

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР