Халюцинациите на изкуствения интелект представляват пряка заплаха за науката
Големите езикови модели (LLM) - като тези, употребявани в чатботовете - имат тревожна податливост да халюцинират. Тоест, да генерират подправено наличие, което показват като тъкмо. Тези халюцинации на изкуствения разсъдък съставляват, наред с други опасности, директна опасност за науката и научната истина, предизвестяват откриватели от Оксфордския интернет институт.
Според тяхната публикация, оповестена в Nature Human Behaviour, " LLMs са проектирани да основават потребни и безапелационни отговори без никакви първостепенни гаранции по отношение на тяхната акуратност или сходство с обстоятелствата ".
Понастоящем LLM се третират като източници на познания и генерират информация в отговор на въпроси или подкани. Но данните, върху които са подготвени, не са безусловно в действителност правилни. Една от аргументите за това е, че тези модели постоянно употребяват онлайн източници, които могат да съдържат погрешни изказвания, отзиви и неточна информация.
Според тяхната публикация, оповестена в Nature Human Behaviour, " LLMs са проектирани да основават потребни и безапелационни отговори без никакви първостепенни гаранции по отношение на тяхната акуратност или сходство с обстоятелствата ".
Понастоящем LLM се третират като източници на познания и генерират информация в отговор на въпроси или подкани. Но данните, върху които са подготвени, не са безусловно в действителност правилни. Една от аргументите за това е, че тези модели постоянно употребяват онлайн източници, които могат да съдържат погрешни изказвания, отзиви и неточна информация.
Източник: manager.bg
КОМЕНТАРИ