Адвокат от Ню Йорк си навлече неприятности, след като представи

...
Адвокат от Ню Йорк си навлече неприятности, след като представи
Коментари Харесай

Хванаха адвокат да използва ChatGPT, цитирал дела, които не съществуват

Адвокат от Ню Йорк си навлече неприятности, откакто показа правно изследване, основано от чатбота ChatGPT.

По време на дело против самолетна компания, съдена за хипотетична телесна щета, юристите на ищеца подават информация, съдържаща няколко каузи, които да бъдат употребявани като юридически казус.

За страдание, както излиза наяве по-късно от писмена клетвена декларация, съдът е " открил, че следните каузи не съществуват ":

Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) 
Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013) 
Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012) 
Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019) 
Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
Miller v. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

Според Би Би Си " изследването " е направено от юрист Стивън А. Шварц, правист с над 30-годишен опит. В писмената клетвена декларация Шварц декларира, че до момента не е употребявал ChatGPT за правни изследвания и " не е знаел за опцията наличието му да е погрешно ".

Скрийншоти в писмените показания демонстрират по какъв начин юристът пита чатбота " същинско дело ли е варгезе ", на което чатботът дава отговор " да ". Когато е запитан за източника, чатботът споделя, че делото може да бъде открито " в базите данни за правни проучвания като Westlaw и LexisNexis ". На въпроса " подправени ли са другите каузи, които показа ", той дава отговор " не ", като прибавя, че те могат да бъдат открити в същите бази данни.

Колкото и занимателни да са чатботовете или колкото и напреднали да наподобяват, те към момента са склонни към така наречен " халюцинации " – отговори, които звучат безусловно смислени, само че които нямат никаква връзка с действителността.

Това не е инструмент, който би трябвало да употребявате при изследването на юридически проблем, който се основава на действителни прецеденти, а не на „ халюцинациите “ на даден бот. Адвокатът написа, че " доста съжалява, че е употребявал генеративен изкуствен интелект, с цел да добави осъщественото правно проучване " и се зарича „ в никакъв случай да не го прави в бъдеще, без да се увери изцяло в неговата достоверност ".

Както Шварц, по този начин и юристът Питър Лодука, който не е знаел, че ChatGPT е употребен като инструмент за изследване на делото, ще бъдат изслушани на 8 юни по отношение на случая.

Източник: IFLScience
Източник: novini.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР