Големите езикови модели (LLM) - като тези, използвани в чатботовете

...
Големите езикови модели (LLM) - като тези, използвани в чатботовете
Коментари Харесай

Халюцинациите на изкуствения интелект представляват пряка заплаха за науката

Големите езикови модели (LLM) - като тези, употребявани в чатботовете - имат тревожна податливост да халюцинират. Тоест, да генерират подправено наличие, което показват като тъкмо. Тези халюцинации на изкуствения разсъдък съставляват, наред с други опасности, директна опасност за науката и научната истина, предизвестяват откриватели от Оксфордския интернет институт.

Според тяхната публикация, оповестена в Nature Human Behaviour, " LLMs са проектирани да основават потребни и безапелационни отговори без никакви първостепенни гаранции по отношение на тяхната акуратност или сходство с обстоятелствата ".

Понастоящем LLM се третират като източници на познания и генерират информация в отговор на въпроси или подкани. Но данните, върху които са подготвени, не са безусловно в действителност правилни. Една от аргументите за това е, че тези модели постоянно употребяват онлайн източници, които могат да съдържат погрешни изказвания, отзиви и неточна информация.
Източник: manager.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР