Изкуственият интелект (AI) е представян като неизбежното бъдеще в ежедневието

...
Изкуственият интелект (AI) е представян като неизбежното бъдеще в ежедневието
Коментари Харесай

Яжте камъни за здраве: Защо AI оглупява все повече

Изкуственият разсъдък (AI) е представян като неизбежното бъдеще в всекидневието на всеки човек. И една от огромните му изгоди е фактът, че доста бързо обработва огромни масиви от информация и може да даде подробни отговори и на най-сложните въпроси. Освен това може бързо да се учи и да усъвършенства качествата си. В реалност обаче в последно време като че ли се случва тъкмо противоположното.

Още от предходната година имаше известия, че известни ботове като ChatGPT са развили „ мързел “ или даже са станали „ по-глупави “, допускайки обикновени неточности. След известни актуализации и усъвършенствания на системата, въпросът като че ли беше решен. Нови изследвания и мнения на потребителите за AI услугите обаче демонстрират, че оглупяването на технологията още веднъж е проблем. И той може да има доста рискови последствия.

Новата услуга AI Overviews на Гугъл да вземем за пример се оказа в центъра на голям брой рецензии за качеството на отговорите, които дава. Потребители демонстрираха в обществените мрежи екранни фотоси на разнообразни отговори, които AI Overviews дава на разнородни въпроси. И някои от тях са фрапиращи.

AI Overviews да вземем за пример твърди, че американски геодезисти предлагат на хората всеки ден ядат по един дребен камък, тъй като е потребен за храносмилането и има доста витамини. Функцията също по този начин се базира на известния медицински уебсайт WebMD, като твърди, че той предлага на хората да се „ взират “ в Слънцето по 5 до 15 минути дневно или 30 минути „ в случай че сте с по-тъмна кожа “, като това е потребно за здравето. Проблем има и при кулинарията: да вземем за пример съвет да се добави лепило към сос за пица.

Пред CNBC Гугъл споделя, че сходни неточности са необичайност и твърди, че доста от образците са манипулирани. Въпреки това компанията ще редактира някои от отговорите, а други въпроси ще бъдат филтрирани към този момент. В изявление за The Verge, изпълнителният шеф на Гугъл Сундар Пичай призна, че логаритъмът има „ халюцинации “ (генерирането на погрешни „ обстоятелства “), само че и че това е проблем, по който се работи. Пичай прикани да не се гледа с неприятно око на технологията, тъй като допускането на неточности не значи, че не е потребна.

Проблемен програмист

Друга огромна изгода на чатботовете, която те популяризират с ненаситност, е способността им да пишат програмен код. Доста компании даже към този момент разчитат най-вече на ChatGPT да е в ролята на програмист, а хората-програмисти са най-вече редактори на кода и би трябвало да имат повече време да мислят по-големи хрумвания. Според изследване на университета Purdue обаче, 52% от отговорите на ChatGPT на програмистки въпроси са неверни, оповестява Futurism.

Учените са употребявали 517 въпроса от известната платформа Stack Overflow, като са анализирали отговорите на ChatGPT. В 52% от случаите в отговорите има неправилна информация. Също по този начин 77% от отговорите на ChatGPT са по-дълги от тези на хората, а в 78% от тях има и повече несъответствия и несъгласия по отношение на отговорите на хората на същите въпроси.

Експертите са създали и лингвистичен разбор на 2000 случайни отговора на ChatGPT. Оказва се, че те са с по-официален и изчерпателен звук с по-малко отрицателно въодушевление, т.е. по-малко прочувствен. Програмистите като цяло харесват този звук повече, като надлежно му се доверяват повече и има по-голяма възможност да не виждат грешките.

Предупреждение и от Европейски Съюз

Проучване на Европейския контролен орган по отбрана на данните също подлага на критика OpenAI, че не съумява да усъвършенства качеството на информацията, която ChatGPT дава. Според регулатора, подхванатите ограничения от компанията не са задоволителни за съблюдаване на правилото на акуратност на данните. Самият модел на работа на системата усилва вероятността за пристрастни или измислени резултати, считат специалистите на Европейски Съюз.

Те означават, че резултатите на ChatGPT имат по-голяма възможност да бъдат възприети от потребителите като истина, без значение дали това е по този начин или не. Съответно и отговорността на фирмите, които основават такива технологии, е още по-голяма. А Европейският правилник за отбрана на данните изисква от чатботовете да дават допустимо най-точна информация, изключително, когато става дума за действителни обстоятелства, които са свързани с хора. Съответно фактът, че съгласно Гугъл AI Overviews, че Барак Обама е мохамеданин, също ще провокира недоволството на регулатора.

Как да се защитим?

Рисковете от това изкуственият разсъдък да генерира погрешни отговори са пределно ясни. Но какво може да направи елементарният консуматор, с цел да се отбрани? Особено имайки поради, че тези услуги занапред ще навлизат в всекидневието и бизнеса, а за момента ИТ колосите признават, че не могат да намерят решение на проблема, което да е задоволително дейно и трайно. Изглежда, че всички ограничения за попречване на неверни отговори дават краткотраен резултат и по-късно логаритмите още веднъж демонстрират признаци на „ оглупяване “.

Според Крис Коленда, създател и съветник за стратегическо и лидерско развиване, „ AI оглупява “ и би трябвало да избегнем „ когнитивен раздор “. Той изяснява, че една от аргументите за „ оглупяването “ на изкуствения разсъдък са самите консуматори. Технологията се учи освен от данните, които има, само че и от въпросите и реакциите на потребителите. Когато те задават глупави или подвеждащи въпроси, а мнозина вършат това съзнателно, с цел да объркат логаритъма или да го накарат да каже нещо неуместно, той стартира да възприема протичащото се като факт и надлежно приспособява цялото си държание. AI се учи хората, а хората са надалеч от съвършени.

За да избегнат, или най-малко да понижат риска да попаднат в когнитивния раздор на AI и да бъдат комплицирани и подвеждани от погрешна информация, Коленда предлага на хората няколко ограничения. Една от тях е увеличение на „ когнитивното многообразие “ във вътрешния кръг на човек. Това, че някой мисли друго, не значи, че бърка. Или пък, че наподобява по друг метод, не значи, че мисли друго.

Коленда предлага да се търсят разнообразни гледни точки и вероятности. Когато човек се изолира да употребява и получава информация единствено от едно място, тогава изпада в когнитивен раздор с действителността.

Увеличаването на психическата убеденост, също е значимо. Коленда го споделя в областта на компания, само че работи и за персоналния живот на чиновниците: „ Хората с психическа убеденост по-лесно разпознават проблеми, оферират свежи хрумвания и подхващат опасности за общото богатство. Ако всичко във вашия свят постоянно е ужасно, подгответе се за удар “, споделя Коленда.

Не пропускайте най-важните вести - последвайте ни в 
Източник: vesti.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР