Advokat ber om ursäkt för falska domstolscitat skapade av ChatGPT

Det har pratats mycket de senaste månaderna om hur den nya vågen av AI-drivna chatbotar, ChatGPT bland dem, skulle kunna rubba många branscher, inklusive advokatkåren.

Men att döma av vad som nyligen hände i ett fall i New York City, verkar det som att det kan dröja ett tag innan högutbildade advokater sopas åt sidan av tekniken.

Rekommenderade videor

Det bisarra avsnittet började när Roberto Mata stämde ett colombianskt flygbolag efter att ha hävdat att han led av en skada på ett flyg till New York City.

Relaterad

  • Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
  • GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
  • Wix använder ChatGPT för att hjälpa dig att snabbt bygga en hel webbplats

Flygbolaget, Avianca, bad domaren att avfärda fallet, så Matas juridiska team sammanställde ett kort citat ett halvdussin liknande fall som hade inträffat i ett försök att övertala domaren att låta sin klients talan Fortsätt, The New York Times rapporterad.

Problemet var att flygbolagets advokater och domaren inte kunde hitta några bevis för de fall som nämndes i korten. Varför? Eftersom ChatGPT hade hittat på dem alla.

Briefens skapare, Steven A. Schwartz – en mycket erfaren advokat på företaget Levidow, Levidow & Oberman – erkände i en försäkran att han hade använt OpenAI: s mycket hyllade ChatGPT-chatbot för att söka efter liknande fall, men sa att den hade "visat sig vara opålitliga."

Schwartz sa till domaren att han inte hade använt ChatGPT tidigare och "därför var omedveten om möjligheten att dess innehåll kunde vara falskt."

När man skapade briefen bad Schwartz till och med ChatGPT att bekräfta att fallen verkligen hände. Den ständigt hjälpsamma chatboten svarade jakande och sa att information om dem kunde hittas i "reputerade juridiska databaser."

Advokaten i centrum av stormen sa att han "beklagar mycket" att använda ChatGPT för att skapa en kort och insisterade på att han "aldrig skulle göra det i framtiden utan absolut verifiering av dess äkthet."

Titta på vad han beskrev som en juridisk inlaga full av "falska rättsliga beslut, med falska citat och falska interna citat", och beskriver situationen som enastående, domare Castel har beordrat en förhandling i början av nästa månad för att överväga eventuella påföljder.

Även om de är imponerande i sättet de producerar flytande text av hög kvalitet, gillar ChatGPT och andra chatbots det är också kända för att hitta på saker och presentera det som om det är på riktigt - något Schwartz har lärt sig för sin kosta. Fenomenet är känt som "hallucinerande" och är en av de största utmaningarna som de mänskliga utvecklarna bakom chatbotarna står inför när de försöker reda ut detta mycket problematiska veck.

I ett annat nyligen exempel på ett generativt AI-verktyg som hallucinerar, en Australiens borgmästare anklagade ChatGPT för att skapa lögner om honom, inklusive att han fängslades för mutor när han arbetade för en bank för mer än ett decennium sedan.

Borgmästaren, Brian Hood, var faktiskt en whistleblower i fallet och anklagades aldrig för ett brott, så han blev ganska upprörd när folk började informera honom om chatbotens omskrivning av historien.

Redaktörens rekommendationer

  • Här är anledningen till att folk tror att GPT-4 kan bli dummare med tiden
  • ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
  • Vad är en DAN-prompt för ChatGPT?
  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.