При големите езикови модели (LLM) учените са установили висока склонност

...
При големите езикови модели (LLM) учените са установили висока склонност
Коментари Харесай

Учени предупреждават: без изкуствен интелект в правораздаването

При огромните езикови модели (LLM) учените са открили висока податливост към „ халюцинации “ при работа по правни тематики. Инструментите с изкуствен интелект (ИИ) употребяват надълбоко образование и огромен масив данни, с цел да схванат, обобщят и генерират ново наличие. В правната материя обаче, ИИ-инструментите постоянно не сортират действителни юридически случаи, правила и прецеденти, а комбинират данни и „ съчиняват ” хипотетични юридически обстановки.

От изследваните три модела ИИ-инструменти – PaLM 2 на Гугъл, Llama 2 на Meta и ChatGPT 3.5 на OpenAI, последният се показва „ най-добре ”, генерирайки нереални юридически обстоятелства през 69 % от времето за осъществяване на задачата, Резултатът за. PaLM 2 е 72 % и за Llama 2 - 88 %.

Проучването е отговор на навлизането на ИИ в правния бранш и огромното предложение на ИИ-инструменти. Задачите им нормално са да намерят доказателства, да приготвят бележки по каузи и основават тактики при правосъдни разногласия. Примерите от практиката обаче, са повече от смущаващи.

Особено подло...

Прочетете целия материал в cash.bg
Източник: cash.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР