Изследователите разгледаха метод, който може да предвиди кога текстов модел

...
Изследователите разгледаха метод, който може да предвиди кога текстов модел
Коментари Харесай

Изследователите разработват нов метод за предотвратяване на AI от халюцинации, според ново проучване

Изследователите разгледаха способ, който може да планува по кое време текстов модел с изкуствен интелект (AI) има възможност да „ халюцинира “, съгласно ново изследване.

Метод, създаден от екип от откриватели от Оксфорд, може да попречи на AI моделите да вършат „ конфабулации “, които са избран вид халюцинации или неакуратен отговор, съгласно ново изследване. 

С продължаването на шума за генеративния изкуствен интелект (genAI) се усилиха рецензиите във връзка с халюцинациите на моделите на AI. Това са правдоподобно звучащи подправени резултати от огромни езикови модели (LLM) като GPT на OpenAI или Claude на Anthropic. 

Тези халюцинации могат да бъдат изключително проблематични, когато става дума за области като медицина, вести или правни въпроси.

„ „ Халюцинации “ е доста необятна категория, която може да значи съвсем всевъзможен тип на огромен езиков модел е погрешен. Искаме да се съсредоточим върху случаите, в които LLM бърка без причина (за разлика от...

Прочетете целия текст »

Източник: worldnews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР