AI инструментите измислят много неща и това е огромен проблем

...
Преди изкуственият интелект да превземе света, той трябва да реши
Коментари Харесай

Преди изкуственият интелект да превземе света, той трябва да реши един проблем. Ботовете халюцинират.

Задвижвани от изкуствен интелект инструменти като ChatGPT ни хипнотизират със способността си да произвеждат авторитетни, човешки звучащи отговори на привидно всяка подкана. Но тъй като все повече хора се обръщат към тази оживена технология за неща като помощ при домашните, изследвания на работното място или здравни запитвания, един от най-големите й капани става все по-очевиден: AI моделите често просто измислят нещата.

Изследователите започнаха да се отнасят към тази тенденция на AI моделите да излъчват неточна информация като „халюцинации“ или дори „конфабулации“, както каза шефът на AI на Meta в туит. Междувременно някои потребители на социални медии просто наричат ​​чатботовете „патологични лъжци“.

Но всички тези дескриптори произтичат от нашата твърде човешка тенденция да антропоморфизираме действията на машините, според Суреш Венкатасубраманиан, професор в университета Браун, който помогна за съавтора на Плана на Белия дом за Бил за правата на ИИ.

Реалността, каза Венкатасубраманиан, е, че големите езикови модели – технологията, която е в основата на AI инструменти като ChatGPT – са просто обучени да „произвеждат правдоподобно звучащ отговор“ на потребителски подкани. „Така че в този смисъл всеки правдоподобно звучащ отговор, независимо дали е точен, фактически или измислен или не, е разумен отговор и това е, което произвежда“, каза той. „Там няма знание за истината.“

Изследователят на AI каза, че по-добра поведенческа аналогия от халюцинациите или лъжата, която носи конотации на нещо нередно или има злонамереност, би била сравняването на тези компютърни резултати с начина, по който малкият му син би разказвал истории на четиригодишна възраст. „Трябва само да кажете „И тогава какво се случи?“ и той просто ще продължи да създава още истории“, каза Венкатасубраманиан. „И той просто продължаваше и продължаваше.“

Компаниите, които стоят зад чатботове с изкуствен интелект, са поставили някои предпазни огради, които целят да предотвратят най-лошото от тези халюцинации. Но въпреки глобалния шум около генеративния AI, мнозина в областта остават разкъсани относно това дали халюцинациите на чатбот са разрешим проблем или не

Какво е AI халюцинация?

Казано по-просто, халюцинация се отнася до това, когато AI модел „започне да измисля неща – неща, които не са в съответствие с реалността“, според Джевин Уест, професор във Вашингтонския университет и съосновател на неговия Център за Информирана общественост.

„Но го прави с чиста увереност“, добави Уест, „и го прави със същата увереност, както ако зададете много прост въпрос като „Коя е столицата на Съединените щати?““

Това означава, че за потребителите може да бъде трудно да разберат кое е вярно или не, ако питат чатбот нещо, на което все още не знаят отговора, каза Уест.

Редица високопоставени халюцинации от AI инструменти вече направиха заглавия. Когато Google за първи път представи демонстрация на Bard, своя дългоочакван конкурент на ChatGPT, инструментът публично излезе с грешен отговор в отговор на въпрос за нови открития, направени от космическия телескоп James Webb. (Тогавашен говорител на Google каза пред CNN, че инцидентът „подчертава значението на стриктния процес на тестване“ и каза, че компанията работи, за да „се увери, че отговорите на Bard отговарят на високата летва за качество, безопасност и основателност на информацията от реалния свят .“)

Адвокат-ветеран от Ню Йорк също изпадна в гореща вода, когато използва ChatGPT за правно проучване и представи кратка информация, включваща шест „фалшиви“ случая, които чатботът изглежда просто е измислил. Новинарският издател CNET също беше принуден да издаде корекции, след като статия, генерирана от AI инструмент, в крайна сметка даде изключително неточни съвети за лични финанси, когато беше помолен да обясни как работи сложната лихва.

Премахването на AI халюцинациите обаче може да ограничи способността на AI инструментите да помагат на хората с по-креативни начинания - като потребители, които искат от ChatGPT да напише поезия или текстове на песни.

Но има рискове, произтичащи от халюцинации, когато хората се обръщат към тази технология, за да търсят отговори, които биха могли да повлияят на тяхното здраве, поведението им при гласуване и други потенциално чувствителни теми, каза Уест пред CNN.

Венкатасубраманиан добави, че в момента разчитането на тези инструменти за всяка задача, при която се нуждаете от фактическа или надеждна информация, която не можете веднага да проверите сами, може да бъде проблематично. Има и други потенциални вреди, които се спотайват с разпространението на тази технология, каза той, като например компании, използващи AI инструменти, за да обобщят квалификациите на кандидатите и да решат кой да премине към следващия кръг от интервю за работа.

Venkatasubramanian каза, че в крайна сметка той смята, че тези инструменти „не трябва да се използват на места, където хората ще бъдат материално засегнати. Поне не още.”

Могат ли халюцинациите да бъдат предотвратени?

Как да се предотвратят или поправят халюцинациите на AI е „точка на активно изследване“, каза Венкатасубраманиан, но в момента е много сложно.

Големите езикови модели се обучават на огромни масиви от данни и има множество етапи, които преминават към това как един AI модел се обучава да генерира отговор на потребителска подкана – част от този процес е автоматичен, а част от процеса е повлиян от човешка намеса.

„Тези модели са толкова сложни и толкова сложни“, каза Венкатасубраманиан, но поради това „те също са много крехки“. Това означава, че много малки промени във входовете могат да имат „промени в изхода, които са доста драматични“.

„И това е просто природата на звяра, ако нещо е толкова чувствително и толкова сложно, това идва заедно с него“, добави той. „Което означава, че опитът да се идентифицират начините, по които нещата могат да се объркат, е много труден, защото има толкова много малки неща, които могат да се объркат.“

Уест от Вашингтонския университет повтори чувствата му, като каза: „Проблемът е, че не можем да реконструираме халюцинации, идващи от тези чатботове.“

„Това може да е само присъща характеристика на тези неща, която винаги ще бъде там“, каза Уест.

Bard на Google и ChatGPT на OpenAI се опитват да бъдат прозрачни с потребителите от самото начало, че инструментите могат да дадат неточни отговори. И компаниите изразиха, че работят върху решения.

По-рано тази година главният изпълнителен директор на Google Сундар Пичай каза в интервю за „60 минути“ на CBS, че „никой в ​​областта все още не е решил проблемите с халюцинациите“ и „всички модели имат това като проблем“. За това дали това е разрешим проблем, Пичай каза: „Това е въпрос на интензивен дебат. Мисля, че ще постигнем напредък.”

И Сам Алтман, главен изпълнителен директор на създателя на ChatGPT OpenAI, направи технологична прогноза, като каза, че смята, че ще отнеме година и половина или две години, за да „пренесе проблема с халюцинациите на много, много по-добро място“, по време на забележки през юни в индийския Институт за информационни технологии Indraprastha, Делхи. „Има баланс между креативността и перфектната точност“, добави той. „И моделът ще трябва да се научи, когато искате едното или другото.“

В отговор на последващ въпрос за използването на ChatGPT за изследвания обаче, главният изпълнителен директор се пошегува: „Вероятно се доверявам на отговорите, които идват от ChatGPT, най-малко от всеки друг на Земята.“

Източник: cnn.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР