Честно казано, кой не е очаквал това да се случи?

...
Честно казано, кой не е очаквал това да се случи?
Коментари Харесай

Генерираните от изкуствен интелект юридически документи провалят съдебната система

Честно казано, кой не е очаквал това да се случи? Правни специалисти настояват, че ще става все по-зле.

Големите езикови модели към този момент се употребяват за измами в учебно заведение и за разпространяване на дезинформация в новинарските репортажи. Сега те навлизат и в съдилищата, подхранвайки подправените искове, с които съдиите се сблъскват на фона на огромната натовареност, което поражда нови опасности за правната система, която така и така е натоварена.

В скорошен отчет на Ars Technica се разказва в детайли решение на апелативния съд в Джорджия, което акцентира възходящия риск за правната система на Съединени американски щати: генерирани от изкуствен интелект халюцинации, които се промъкват в правосъдните каузи и даже въздействат на правосъдните решения. В бракоразводен спор юристът на брачна половинка е показал план на заповед, пъстър с цитати на несъществуващи каузи – евентуално измислени от генеративни ИИ принадлежности като ChatGPT. Първоначално съдът е подписал документа и след това е постановил решение в интерес на брачна половинка.

Едва откакто брачната половинка апелира, изфабрикуваните цитати излизат нескрито. Апелативният състав, управителен от арбитър Джеф Уоткинс, анулира заповедта, като означи, че подправените случаи са подкопали опцията на съда да преразгледа решението. Уоткинс не спести думите си, като назова цитатите вероятни халюцинации на генеративния изкуствен интелект. Съдът санкции юриста на брачна половинка с 2500 $.

Това може да звучи като еднократен случай, само че през февруари при сходни условия различен юрист беше санкциониран с 15 000 $. Правни специалисти предизвестяват, че това евентуално е знак за идни промени. Генеративните ИИ принадлежности са известни с това, че са склонни да изфабрикуват информация с безапелационна убеденост – държание, обозначено като „ илюзия “. Тъй като ИИ става все по-достъпен както за претрупаните юристи, по този начин и за самопредставилите се страни по делата, специалистите настояват, че съдиите все по-често ще се сблъскват с документи, цялостни с подправени каузи, призрачни прецеденти и изкривени правни разсъждения, прикрити по подобен метод, че да наподобяват законни.

Проблемът се усложнява от правната система, която към този момент е претрупана. В доста юрисдикции съдиите рутинно подпечатват заповедите, направени от юристите. Използването на изкуствен интелект обаче подвига залозите.

„ Мога да си показва сходен сюжет във всеки един случай, когато съдията по делото има доста работа “, споделя Джон Браунинг, някогашен апелативен арбитър от Тексас и академик в региона на правото, който е написал голям брой публикации за етиката на изкуствения разсъдък в правото.

Браунинг съобщи пред Ars Technica, че съгласно него е „ плашещо евентуално “ този тип неточности да станат по-чести. Той и други специалисти предизвестяват, че съдилищата, изключително на по-ниските равнища, са зле готови да се оправят с този напор от нелепости, провокирани от ИИ.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР