Den klodsede brug af ChatGPT har fået et advokatfirma i New York City med en bøde på 5.000 USD.
Efter at have hørt så meget om OpenAIs imponerende AI-drevne chatbot, besluttede advokat Steven Schwartz at bruge det til forskning, tilføjer ChatGPT-genererede sagscitater til en juridisk brief, som blev givet til en dommer tidligere år. Men det kom hurtigt frem, at sagerne udelukkende var blevet opdigtet af chatbotten.
Anbefalede videoer
Den amerikanske distriktsdommer P. Kevin Castel beordrede torsdag advokaterne Steven Schwartz og Peter LoDuca, som overtog sagen fra sin kollega, og deres advokatfirma Levidow, Levidow & Oberman, til at betale en bøde på 5.000 dollars.
Relaterede
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
- ChatGPT-webstedets trafik er faldet for første gang
- De bedste AI-chatbots at prøve: ChatGPT, Bard og mere
sagde dommeren advokaterne havde fremsat "handlinger med bevidst undvigelse og falske og vildledende udtalelser til retten," og tilføjede, at de havde "opgivet deres ansvar" ved at indsende den A.I.-skrevne brief, før de står ved "de falske udtalelser, efter at retskendelser har kaldt deres eksistens ind i spørgsmål."
Castel fortsatte: “Mange skader følger af indgivelse af falske udtalelser. Modparten spilder tid og penge på at afsløre bedraget. Rettens tid er taget fra andre vigtige bestræbelser."
Dommeren tilføjede, at advokaternes handling "fremmer kynisme om advokatbranchen og det amerikanske retssystem."
Advokatfirmaet Manhattan sagde, at det "respektfuldt" var uenig i rettens udtalelse og beskrev det som en "god tro fejl."
Ved et relateret retsmøde tidligere på måneden, sagde Schwartz han ville "oprigtigt undskylde" for det, der var sket, og forklarede, at han troede, han brugte en søgemaskine og ikke anede, at AI-værktøjet kunne frembringe usandheder. Han sagde, at han "dybt fortrød" sine handlinger," og tilføjede: "Jeg led både professionelt og personligt [på grund af] den udbredte omtale, som dette spørgsmål har genereret. Jeg er både flov, ydmyget og ekstremt angerfuld.”
Hændelsen var forbundet med en sag taget op af advokatfirmaet, der involverede en passager, der sagsøgte det colombianske flyselskab Avianca efter at have hævdet, at han led en skade på et fly til New York City.
Avianca bad dommeren om at smide sagen ud, så passagerens juridiske team udarbejdede et kort med henvisning til seks lignende sager i et forsøg på at overtale dommeren til at lade deres klients sag fortsætte. Schwartz fandt disse tilfælde ved at spørge ChatGPT, men han undlod at kontrollere resultaternes ægthed. Aviancas juridiske team slog alarm, da det sagde, at det ikke kunne lokalisere sagerne i briefen.
I en særskilt kendelse torsdag imødekom dommeren Aviancas anmodning om at afvise sagen mod den, hvilket bragte hele den beklagelige episode til en ende.
ChatGPT og andre chatbots som det har fået meget opmærksomhed i de seneste måneder på grund af deres evne til at konversere på en menneskelignende måde og dygtigt udføre en voksende række af tekstbaserede opgaver. Men de er også kendt for at finde på ting og præsentere det, som om det er ægte. Det er så udbredt, at der endda er et udtryk for det: "hallucinerende."
Dem, der arbejder på de generative AI-værktøjer, er ved at udforske måder at reducere hallucinationer på, men indtil da rådes brugerne til nøje at tjekke eventuelle "fakta", som chatbotterne spytter ud.
Redaktørens anbefalinger
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
- ChatGPTs Bing-browsing-funktion deaktiveret på grund af adgangsfejl i betalingsvæggen
- 81 % mener, at ChatGPT er en sikkerhedsrisiko, viser undersøgelsen
- Apples ChatGPT-rival skriver muligvis automatisk kode til dig
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.