Advokat beklager falske retshenvisninger oprettet af ChatGPT

Der har været meget snak i de seneste måneder om, hvordan den nye bølge af AI-drevne chatbots, ChatGPT blandt dem, kunne vælte adskillige brancher, herunder advokatbranchen.

Men at dømme efter, hvad der for nylig skete i en sag i New York City, ser det ud til, at det kan vare et stykke tid, før højtuddannede advokater bliver fejet til side af teknologien.

Anbefalede videoer

Den bizarre episode begyndte, da Roberto Mata sagsøgte et colombiansk flyselskab efter at have hævdet, at han led en skade på et fly til New York City.

Relaterede

  • Topforfattere kræver betaling fra AI-virksomheder for at bruge deres arbejde
  • GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
  • Wix bruger ChatGPT til at hjælpe dig med hurtigt at bygge et helt websted

Flyselskabet, Avianca, bad dommeren om at afvise sagen, så Matas juridiske team sammensatte et kort citat en halv snes lignende sager, der var opstået i et forsøg på at overtale dommeren til at lade deres klients sag Fortsæt, New York Times rapporteret.

Problemet var, at flyselskabets advokater og dommeren ikke var i stand til at finde beviser for de sager, der blev nævnt i briefen. Hvorfor? Fordi ChatGPT havde fundet på dem alle sammen.

Briefens skaber, Steven A. Schwartz - en meget erfaren advokat i firmaet Levidow, Levidow & Oberman - indrømmede i en erklæring, at han havde brugt OpenAIs meget berømte ChatGPT-chatbot for at søge efter lignende sager, men sagde, at den havde "afsløret sig selv at være upålidelige."

Schwartz fortalte dommeren, at han ikke havde brugt ChatGPT før og "derfor var uvidende om muligheden for, at indholdet kunne være falsk."

Da Schwartz oprettede briefen, bad Schwartz endda ChatGPT om at bekræfte, at sagerne virkelig skete. Den altid hjælpsomme chatbot svarede bekræftende og sagde, at oplysninger om dem kunne findes på "velrenommerede juridiske databaser."

Advokaten i centrum af stormen sagde, at han "meget fortryder" at bruge ChatGPT til at lave briefen og insisterede på, at han "aldrig ville gøre det i fremtiden uden absolut verifikation af dets ægthed."

Når han ser på, hvad han beskrev som et juridisk indlæg fuld af "falske retsafgørelser, med falske citater og falske interne citater," og beskriver situationen som hidtil uset, og dommer Castel har beordret en høring i begyndelsen af ​​næste måned for at overveje mulige sanktioner.

Selvom de er imponerende i den måde, de producerer flydende tekst af høj kvalitet, kan ChatGPT og andre chatbots lide det er også kendt for at finde på ting og præsentere det, som om det er ægte - noget Schwartz har lært sin koste. Fænomenet er kendt som "hallucinerende", og er en af ​​de største udfordringer, som de menneskelige udviklere bag chatbotterne står over for, når de søger at udjævne denne meget problematiske fold.

I et andet nyligt eksempel på et generativt AI-værktøj, der hallucinerer, en Den australske borgmester anklagede ChatGPT for at skabe løgne om ham, herunder at han blev fængslet for bestikkelse, mens han arbejdede for en bank for mere end ti år siden.

Borgmesteren, Brian Hood, var faktisk en whistleblower i sagen og blev aldrig anklaget for en forbrydelse, så han var ret ked af det, da folk begyndte at informere ham om chatbotens omskrivning af historien.

Redaktørernes anbefalinger

  • Her er grunden til, at folk tror, ​​at GPT-4 kan blive dummere med tiden
  • ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
  • Hvad er en DAN-prompt til ChatGPT?
  • Google Bard kan nu tale, men kan den overdøve ChatGPT?
  • ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.