Ако през 2022 и 2023 г. сте били в интернет

...
Ако през 2022 и 2023 г. сте били в интернет
Коментари Харесай

Могат ли чатботовете с изкуствен интелект наистина да имат халюцинации?

Ако през 2022 и 2023 година сте били в интернет най-малко един път, няма по какъв начин да не сте научили за чатботове с изкуствен интелект като ChatGPT и Bing AI. Тези системи за изкуствен интелект употребяват композиция от обработка на натурален език и информация, събрана от образование върху големи масиви от данни, с цел да взаимодействат с потребителите.

Тези системи с изкуствен интелект са необикновено безапелационни в представянето си.

Информацията, която подават, наподобява точна, само че в действителност от време на време това надалеч не е по този начин. Едно от най-големите провокации при моделите за генериране на текст и изображения от ИИ се назовава „ илюзия “. 

Тя лишава много от блясъка на другояче революционната технология. 

Халюцинация е, когато ИИ решително показа информация, която няма никаква основа в действителността. Често срещана неточност, видяна първоначално, е изобретяването на източници и цитати. В проява на The Oxford Review в YouTube ChatGPT вмъква откъс на фиктивен теоретичен труд. Списанието, към което е направена препратката, е същинско, само че публикацията и създателите ѝ не са открити на никое място. 

В различен чудноват образец Bing Chat на Microsoft си измисля информация за прахосмукачки по време на своя проява. Примерите са доста.

Генераторите на изкуство с изкуствен интелект също халюцинират в прочут смисъл. В този случай те са склонни да изопачават анатомията. Това постоянно се показва в човешки персонажи с безбожно доста пръсти да вземем за пример.

Защо системите с изкуствен интелект халюцинират?

Проблемът с генераторите на изкуствен интелект – без значение дали става дума за генератори на изображения или текст – е обвързван с метода, по който те се образоват. Разбира се и с метода, по който генерират отговори. ИИ се образова благодарение на наличие от интернет, което употребява, с цел да придобие познания и подтекст по разнообразни тематики. Когато потребителят вкара питане в нещо като ChatGPT, той се рови в базата си от познания и дава отговор въз основа на подтекста, с който разполага. 

Както изяснява когнитивният академик Дъглас Хофстадър в The Economist, изкуственият разсъдък не е умишлен или сензитивен, даже и да се пробва по всякакъв начин да убеди някои от нас в противоположното.  

Според Science Focus тези халюцинации на ИИ произтичат от фундаментална липса на схващане на предмета. ИИ не рисува ръка, тъй като знае по какъв начин работи анатомията, а тъй като е подготвен по какъв начин наподобява ръката. Да само че в другите фотоси, с които е захранен, ръката е в друга позиция, от друг ъгъл, не постоянно в цялостен размер. Заради неналичието на схващане, това не води до избрани заключения, посредством които да се генерира вярно изображение на ръката.

ИИ, който прави такива неточности, е притеснителен, тъй като може да докара до обилни проблеми в жизненоважни приложения на ИИ. Такива са самоуправляващите се транспортни средства, публицистиката и здравната диагностика. Именно поради това, битката с халюцинациите е приоритет №1 на основателите на разнообразни системи с ИИ. Ако желаят това в действителност да бъде гражданска война. 

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР