Изкуственият интелект поражда сериозни опасения относно възможните последици от предоставянето

...
Изкуственият интелект поражда сериозни опасения относно възможните последици от предоставянето
Коментари Харесай

Езиковият модел GPT-5, който се очаква да излезе тази година, може да направи ChatGPT неразличим от човека

Изкуственият разсъдък поражда съществени опасения по отношение на вероятните последствия от даването на толкоз огромна власт на технологията

Емил Василев преди 4 минути 6 Сподели

Най-четени

АвтомобилиДаниел Десподов - 11:09 | 27.03.2023

„ Това е безспорна изненада за всички нас “ – правосъдни реализатори започнаха да разказват и запорират имуществото на съветския цех Volkswagen

IT НовиниЕмил Василев - 20:10 | 27.03.2023

Производител на муниции в Норвегия не може да работи, тъй като център за данни на TikTok наоколо употребява цялото електричество

КриптовалутиВелимир Кръстев - 16:00 | 28.03.2023

Около $850 милиона са били изтеглени от Binance часове преди новината за делото

Емил Василевhttps://www.kaldata.com/

Твърденията на софтуерния бизнесмен и разработчик Сики Чен, че GPT-5 „ ще “ реализира неестествен общ разсъдък (AGI) до края на тази година, провокираха неспокойствие в света на ИИ.

Ако изказванието е правилно, този прогрес в технологията на ИИ може да има съществени последствия.

„ Казаха ми, че GPT-5 би трябвало да приключи образованието си през декември тази година и че OpenAI чака той да реализира AGI. “

написа Чен в Twitter в понеделник

Това значи, че с ъпгрейд на GPT-5, генеративният ИИ може да бъде неразграничим от индивида.

Междувременно Чен разяснява, че не желае да каже, че постигането на AGI с GPT5 е консенсусно разбиране в границите на OpenAI, „ само че не малко хора имат вяра, че ще се стигне до такава степен “.

Способността на ИИ да научи и разбере всяка задача или идея, която хората могат, се назовава AGI, до момента в който ИИ се отнася до машина, която може да извършва съответни задания. AGI е по-високо равнище на изкуствен интелект, което не е лимитирано до съответни задания или функционалности.

От друга страна, AGI може да увеличи продуктивността посредством ускорение на процесите, основани на ИИ да освободи на хората от повтарящи се и еднообразни задания.

Предоставянето на толкоз огромни пълномощия на ИИ обаче може да има непредвидени и даже негативни последствия. Това може да направи допустимо извънредно безапелационни ботове, сходни на човекоподобни да се популяризират в платформите на обществените медии, което ще даде опция за прикрито разпространяване на нездравословна дезинформация и агитация.

Последици от властта на изкуствения разсъдък

Чен цитира неотдавнашния туит на Йохи Накаджима, в който той разказва опит обвързван с изкуствен интелект, който ненапълно „ му взривява мозъка “.

В опита на ИИ се задава цел за основаване на идната му задача и той продължава да генерира и пренарежда личния си лист със задания, до момента в който ги извършва.

Въпреки че този опит към този момент е обвързван единствено с търсенето, Чен има вяра, че с мощта на плъгините за чатботове и GPT-5 „ сме доста по-близо “ до постигането на AGI, в сравнение с доста хора имат вяра.

AGI поражда съществени опасения по отношение на вероятните последствия от даването на толкоз огромна власт на сходен на ChatGPT инструмент.

В сряда Илън Мъск и над хиляда други софтуерни водачи и откриватели предизвестиха, че развиването на ИИ може да форсира разпространяването на подправена информация и агитация и че прекъсването на всевъзможен прогрес оттатък GPT-4 би било в полза на човечеството.

„ Призоваваме всички лаборатории за изкуствен интелект неотложно да преустановят най-малко за шест месеца образованието на системи за изкуствен интелект, които са по-мощни от GPT-4. Тази пауза би трябвало да бъде обществена и проверима и да включва всички основни участници. “

„ Ако такава пауза не може да бъде въведена бързо, държавните управления би трябвало да се намесят и да вкарат мораториум. “

се споделя в писмото
Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР