В края на миналия месец над хиляда специалисти по изкуствен

...
В края на миналия месец над хиляда специалисти по изкуствен
Коментари Харесай

Андрю Нг и Ян Лекун се противопоставиха на мораториума върху изкуствения интелект

В края на предишния месец над хиляда експерти по изкуствен интелект разгласиха отворено писмо, в което приканиха създаването на генеративните модели да бъде прекратено най-малко за шест месеца заради евентуалната им заплаха за обществото. Не всички обаче поддържаха тази самодейност. Двама водещи специалисти в региона на невронните мрежи и машинното образование, Иън Лекун и Андрю Нг, смятат, че паузата в проучванията е ужасна концепция, и се застъпват за независимост на научните проучвания при рационално контролиране на ИИ продуктите, които попадат в ръцете на потребителите.

В онлайн полемика, с безапелационното заглавие „ Защо шестмесечната пауза за изкуствения разсъдък е неприятна идея„, Иън Лекун (носител на премията „ Тюринг “, началник на Meta) и Андрю Нг (бивш началник на Гугъл Brain и на Baidu, съосновател на Coursera) споделиха вижданията си за обстановката. В началото на диалога Иън съобщи, че налагането на шестмесечен мораториум в действителност би предизвикало доста повече вреди, в случай че държавното управление реши да работи по този метод.

През последното десетилетие изкуственият разсъдък претърпя забележителен взрив, написа Venture Beat. Технологията за надълбоко образование докара до основаването на генеративни системи за изкуствен интелект, способни да генерират правдоподобни текстове, изображения и звуци: ChatGPT, LLaMa, Midjourney, Stable Diffusion, Dall-E. Те откриха редица нови, към момента неразучени благоприятни условия, само че и дадоха мотив за безпокойствие.

Някои от тези опасения бяха свързани с сегашното или непосредственото бъдеще – бистрота, пристрастност, социално-икономически вреди. Други бяха по-далечни и неразбираеми, като да вземем за пример появяването на повсеместен изкуствен интелект, който би желал да унищожи човечеството или най-малко да работи от персонален интерес.

„ Историята нееднократно е показвала, че благосъстоянието на обществото и хората се развива с повишаването на интелигентността: умения, просветеност, обучение, творчество, просвета, връзка и свободен продан на хрумвания. Интелектът, без значение дали е човешки или машинен, е горивото на напредъка “, сподели Лекун.

Според него малко на брой от подписалите отвореното писмо съществено имат вяра, че ИИ ненадейно ще се изправи против хората. Според него по-разумни са тези, които имат вяра, че ИИ има прочут капацитет да навреди на човечеството и че би трябвало да се направи нещо по въпроса. Той е склонен с тези хора. Но когато става въпрос за бъдещи, към момента несъздадени ИИ, е неточност да се счита, че всички те ще бъдат създадени на същите правила като ChatGPT. Със сигурност ще се появят нови способи и хрумвания за това по какъв начин да се създадат тези системи по-управляеми.

Като цяло Нг и Лекун признават, че е належащо известно контролиране на ИИ, само че не за сметка на научните проучвания и нововъведенията. Според тях прекъсването на развиването е нереалистично и контрапродуктивно. Вместо това те приканиха за съдействие и бистрота сред откривателите, държавните управления и корпорациите, с цел да се подсигурява, че техните модели се държат етично и отговорно.

„ Първата ми реакция [на писмото] – апелът за отсрочване на научноизследователската и развойната активност ми припомня за нова вълна на мракобесие “, споделя Лекун. „ Защо да забавяме напредъка на знанието и науката? След това стои въпросът за продуктите… Аз съм за контролиране на ИИ продуктите, които стигат до хората. Не виждам смисъл в регулирането на научноизследователската и развойната активност. Не мисля, че това ще докара до някаква изгода, като се изключи че ще понижи знанията, които можем да използваме, с цел да създадем технологиите в действителност по-добри и по-безопасни “.

Нг се причислява към своя сътрудник: „ Призивът за шестмесечен мораториум върху напредъка в региона на изкуствения разсъдък е ужасна концепция. Виждам доста нови приложения в образованието, опазването на здравето, хранителната индустрия и така нататък, които ще оказват помощ на доста хора. Усъвършенстването на GPT-4 ще бъде от изгода. Нека балансираме голямата стойност, която ИИ основава, с реалистичните опасности. “

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР