Изкуственият интелект ChatGPT причини сериозни главоболия на адвокатска кантора(снимка: CC0

...
Изкуственият интелект ChatGPT причини сериозни главоболия на адвокатска кантора(снимка: CC0
Коментари Харесай

ChatGPT подведе опитен адвокат с невярна информация


Изкуственият разсъдък ChatGPT аргументи съществени главоболия на адвокатска адвокатска фирма
(снимка: CC0 Public Domain)

Американският юрист Стивън Шварц употребява известния всекидневен бот ChatGPT, с цел да приготви документи за дело против Avianca. Но о питът за опростяване на работата благодарение на AI алгоритъ ма се оказа злополука за юриста – творението на OpenAI го достави с ненадеждна информация и с ега Шварц ще бъде осъден.

Шварц от адвокатската адвокатска фирма Levidow, Levidow & Oberman, който прекара последните 30 години от живота си в Ню Йорк, представляваше Роберто Мата в дело против колумбийската самолетна компания Avianca. Мата, съгласно личното му изказване, е бил засегнат по време на полет през 2019 година от чиновник на компанията транспортьор – стюардеса го блъснала в коляното с железна количка, която се употребява за обслужване на пасажерите. Това предиздвикало мъжът да заведе дело против Avianca с поддръжката на Levidow, Levidow & Oberman.
още по темата
Адвокатите на Avianca вземат решение да прекратят правосъдния спор и желаят от федералния арбитър Кевин Кастел да отхвърли делото на съображение, че отминалостта е изтекла. Адвокатите на потърпевшия пасажер обаче се базират на казус – те цитират като образец няколко сходни случая едновременно, чието разглеждане в предишното е завършило в интерес на ищеца.

Документите, показани от Шварц в съда, включват каузи като Мартинес против Delta Air Lines, Зикерман против Korean Air Lines и Варгес против China Southern Airlines. Както се оказа по-късно, създателят на документите решил да не си губи времето в търсене на бази данни с правна информация като LexisNexis или Westlaw, а прибягнал до помощта на разговорния бот ChatGPT от OpenAI. Опитният юрист Шварц не ревизирал деликатно данните, получени от бота, и незабавно ги въвел в документите, които по-късно са предадени на съда.

Участниците в процеса се усъмняват, че нещо не е наред, защото нито представителите на ответника, нито самият арбитър съумяват да намерят текстовете на решенията по делата, посочени в документите. Съдията желае пояснение от Шварц, което той показва документално. Причината, заради която съдът не е съумял да откри случаите, посочени от юриста в документите, се оказва извънредно елементарна – в реалност те в никакъв случай не са съществували, а ChatGPT просто ги е „ измислил ”, пробвайки се да поддържа позицията на ищеца.

Адвокатът показва страдание за решението си да разчита на услугата с изкуствен интелект. Той твърди, че в никакъв случай не е употребявал ChatGPT преди този момент и затова не е знаел, че текстът, генериран от бота, може да съдържа погрешна информация.

Шварц се опитал да ревизира достоверността на данните, издадени от бота, с помощта на… същия бот: юристът пита ChatGPT дали случаите, на които той се базира, в действителност съществуват. Отговорът на диалоговия бот е допустимо най-кратък: „ Да ”.

Съдия Кастел разказва обстановката, в която правните документи са затрупани с „ подправени правосъдни решения, препратки и цитати ”, като невиждана.

Съдът е насрочил дисциплинарно чуване за 8 юни 2023 година, по време на което ще бъдат разисквани евентуални наказания против Шварц и сътрудника му от адвокатската адвокатска фирма Питър Лодука.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР