Едно от най-критикуваните поведения на AI чатботовете е т.нар. халюциниране(снимка:

...
Едно от най-критикуваните поведения на AI чатботовете е т.нар. халюциниране(снимка:
Коментари Харесай

Вече има лек срещу халюцинациите на AI чатботове


Едно от най-критикуваните държания на AI чатботовете е така наречен халюциниране
(снимка: CC0 Public Domain)

Лекарство против халюцинации на изкуствения разсъдък? Да, към този момент има такова. Гугъл DeepMind създаде инструмент за „ инспекция на обстоятелства ”, използван към AI чатботовете, които навлизат неудържимо в последните години.

Едно от най-критикуваните държания на AI чатботовете е така наречен халюциниране, при което изкуственият разсъдък дава безапелационен отговор на въпрос, като в същото време дава в действителност погрешна информация. Казано по-просто, изкуственият разсъдък си измисля неща в опит да задоволи своя консуматор.

Това не е огромен проблем в инструментите, които употребяват генеративен AI за основаване на фотоси или видеоклипове. Известният специалист Андрей Карпати, който неотдавна се отдръпна от OpenAI, даже съобщи, че способността за халюцинации е най-значимата характерност на огромните езикови модели (LLM), генеративната технология на изкуствения разсъдък.

Въпреки това, халюцинациите са доста сериозен проблем в текстово-фокусирани, основани на LLM чатботове, където потребителят чака, че предоставената информация е в действителност точна.
още по темата
Предотвратяването на AI халюцинации е софтуерно предизвикателство – и то не е по никакъв начин елементарно. Изглежда обаче, че Гугъл DeepMind и Стандфордският университет са намерили решение на казуса, съгласно обява на Marktechpost.

Изследователите оферират система, основана на LLM – Search-Augmented Factuality Evaluator, или SAFE, която всъщност ревизира дълготрайните отговори, генерирани от AI чатботове. Техните констатации са налични в arXiv дружно с целия пробен код и набори от данни.

Системата проучва, обработва и прави оценка отговорите в четири стъпки, с цел да ревизира тяхната акуратност и действителност. SAFE разделя отговора на обособени обстоятелства, преработва ги и ги съпоставя с резултатите от Гугъл Search. Системата също по този начин ревизира уместността на обособените обстоятелства по отношение на първичния въпрос.

За да оценят успеваемостта на SAFE, откривателите са основали LongFact, набор от данни от почти 16 000 обстоятелството. След това са тествали системата в 13 разнообразни LLM от четири фамилии – Claude, Gemini, GPT и PaLM-2. В 72% от случаите SAFE дава същите резултати като човешките анотатори. При противоречие SAFE е верен в 76% от времето.

Изследователите настояват, че потреблението на SAFE е 20 пъти по-евтино от човешки анотатори или хора, които ревизира обстоятелства ( “фактчекъри ”), като по този метод обезпечава стопански жизнеспособно решение, което може да се приложи в мащаб.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР