Екип от изследователи на Microsoft публикува доклад от 155 страници,

...
Екип от изследователи на Microsoft публикува доклад от 155 страници,
Коментари Харесай

Microsoft предупреждава за нова опасност: ИИ започва да се държи като истински човек

Екип от откриватели на Microsoft разгласява отчет от 155 страници, в който се твърди, че езиковият модел GPT-4 на OpenAI, който зарежда и чатботът с изкуствен интелект ChatGPT стартира да разсъждава като същински човек. Докладът, оповестен в списание Nature, открива, че ChatGPT-4 е в положение сполучливо да извършва разнообразни задания, изискващи разсъждения на човешко равнище, като отговаряне на въпроси, генериране на текст и превод на езици.

Започва ли ИИ да разсъждава като същински човек?

Изследователите са изключително впечатлени от способността на GPT-4 да генерира текст, който е неразграничим от написания от човек. В един от опитите откривателите помолили ChatGPT да напише къса история за робот, който се влюбва в човек. Разказът, който чаботът генерира, е толкоз добре написан, че откривателите не могат да схванат, че е написан от изкуствен интелект.

Изследователите считат, че способността на GPT-4 да разсъждава като човек е значим стадий в развиването на изкуствения разсъдък. Те настояват, че качествата му могат да се употребяват за създаване на нови приложения, задвижвани от ИИ в разнообразни области, да вземем за пример в опазването на здравето, образованието и обслужването на клиенти.

Изследователите обаче също по този начин предизвестяват, че опциите на усъвършенстваният езиков модел могат да се употребяват и за злонамерени цели. Например, той може да се употребява за генериране на подправени новинарски публикации или за основаване на спамботове. Изследователите приканват за деликатното контролиране на технологиите с изкуствен интелект, с цел да се подсигурява, че те се употребяват за положително, а не за неприятно.

Констатациите в отчета бяха посрещнати със смесени реакции. Някои специалисти похвалиха откривателите за работата им, до момента в който други показаха угриженост по отношение на евентуалните рискове от ИИ. Все още е прекомерно рано да се каже какви ще бъдат дълготрайните последствия от опциите на GPT-4. Въпреки това отчетът припомня, че ИИ е мощна технология, която има капацитета да промени света ни по неповторим метод.

Бъдещето на ИИ

Разработването на GPT-4 е значим стадий в развиването на изкуствения разсъдък. Това е първият езиков модел, който е кадърен да разсъждава като човек. Това може да окаже доста влияние върху метода, по който ИИ ще се употребява в бъдеще.

В предишното хората нормално са изпълнявали разнообразни задания, за които се към този момент може да се употребява ИИ, като да вземем за пример обслужване на клиенти или въвеждане на данни. Програмистите обаче нормално са ограничавали ИИ до задания, които са елементарно програмируеми. Способността на GPT-4 да разсъждава като човек допуска, че ИИ може да извършва по-сложни задания, които изискват схващане на човешко равнище, като да вземем за пример писане на креативно наличие, взимане на решения и решение на разнообразни проблеми.

Разработката на GPT-4 също по този начин поражда опасения по отношение на евентуалните рискове, свързани с ИИ. Ако ИИ е кадърен да разсъждава като човек той би могъл да бъде кадърен и да взема решения, които са нездравословни за хората. Например, той може да се употребява за създаване на самостоятелни оръжия, които биха могли да убиват без човешка интервенция.

Важно е да се помни, че ИИ е инструмент. Както всеки инструмент, той може да се употребява както за положително, по този начин и за зло. От нас зависи да го използваме за положително, по тази причина би трябвало да бъдат създадени етични насоки за създаването и потреблението на технологията. Също по този начин, обществеността би трябвало да бъде осведомена за евентуалните рискове от ИИ, с цел да могат да бъдат осъзнати рисковете и да бъдат подхващат ограничения за отбрана.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР