Адвокат, съжалявам за фалшивите съдебни цитати, създадени от ChatGPT

През последните месеци се говори много за това как новата вълна от базирани на AI чатботове, ChatGPT сред тях, може да преобърне много индустрии, включително юридическата професия.

Въпреки това, съдейки по това, което наскоро се случи в случай в Ню Йорк, изглежда, че може да мине известно време, преди висококвалифицираните адвокати да бъдат пометени от технологията.

Препоръчани видеоклипове

Странният епизод започва, когато Роберто Мата съди колумбийска авиокомпания, след като твърди, че е получил нараняване по време на полет до Ню Йорк.

Свързани

  • Топ автори изискват заплащане от фирми за изкуствен интелект за използване на работата им
  • GPT-4: как да използвате AI chatbot, който засрамва ChatGPT
  • Wix използва ChatGPT, за да ви помогне бързо да създадете цял уебсайт

Авиокомпанията Avianca поиска от съдията да отхвърли делото, така че правният екип на Мата състави кратко цитиране половин дузина подобни случаи, възникнали в опит да убедят съдията да остави делото на клиента им продължете, Ню Йорк Таймс докладвани.

Проблемът беше, че адвокатите на авиокомпанията и съдията не успяха да намерят никакви доказателства за случаите, посочени в кратката информация. Защо? Защото ChatGPT ги беше измислил всичките.

Създателят на кратката информация, Стивън А. Шварц – много опитен адвокат във фирмата Levidow, Levidow & Oberman – призна в клетвена декларация, че е използвал Много известният ChatGPT чатбот на OpenAI за търсене на подобни случаи, но каза, че „се е разкрил като ненадежден.”

Шварц каза на съдията, че не е използвал ChatGPT преди и „следователно не е знаел за възможността съдържанието му да е невярно“.

При създаването на кратката информация Шварц дори поиска от ChatGPT да потвърди, че случаите наистина са се случили. Вечно полезният чатбот отговори утвърдително, като каза, че информация за тях може да бъде намерена в „уважавани правни бази данни“.

Адвокатът в центъра на бурята каза, че „силно съжалява“ за използването на ChatGPT за създаване на кратката информация и настоя, че „никога няма да го направи в бъдеще без абсолютна проверка на автентичността му“.

Гледайки това, което той описа като правно подаване, пълно с „фалшиви съдебни решения, с фалшиви цитати и фалшиви вътрешни цитати“ и описвайки ситуацията като безпрецедентна, съдия Кастел нареди изслушване за началото на следващия месец, за да разгледа възможни наказания.

Макар и впечатляващ с начина, по който създават преливащ текст с високо качество, ChatGPT и други чатботове го харесват също са известни с това, че измислят неща и ги представят така, сякаш са истински - нещо, което Шварц е научил за своите цена. Феноменът е известен като „халюцинация“ и е едно от най-големите предизвикателства, пред които са изправени човешките разработчици зад чатботовете, докато се стремят да изгладят тази много проблематична гънка.

В друг скорошен пример за генеративен AI инструмент халюцинира, an Австралийски кмет обвини ChatGPT за създаване на лъжи за него, включително, че е бил в затвора за подкуп, докато е работил за банка преди повече от десетилетие.

Кметът, Брайън Худ, всъщност беше подател на сигнали по случая и никога не е бил обвинен в престъпление, така че беше доста разстроен, когато хората започнаха да го информират за пренаписването на историята от чатбота.

Препоръки на редакторите

  • Ето защо хората смятат, че GPT-4 може да става все по-глупав с времето
  • ChatGPT: последните новини, спорове и съвети, които трябва да знаете
  • Какво е DAN подкана за ChatGPT?
  • Google Bard вече може да говори, но може ли да заглуши ChatGPT?
  • Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.