Den klønete bruken av ChatGPT har fått et advokatfirma i New York City med en bot på 5000 dollar.
Etter å ha hørt så mye om OpenAIs imponerende AI-drevne chatbot, bestemte advokat Steven Schwartz seg for å bruke det for forskning, og legger ChatGPT-genererte saksiteringer til et juridisk dokument som ble overlevert til en dommer tidligere dette år. Men det viste seg snart at sakene i sin helhet var oppgjort av chatboten.
Anbefalte videoer
Den amerikanske distriktsdommeren P. Kevin Castel beordret torsdag advokatene Steven Schwartz og Peter LoDuca, som overtok saken fra sin medarbeider, og deres advokatfirma Levidow, Levidow & Oberman, til å betale en bot på 5000 dollar.
I slekt
- ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
- ChatGPT-nettstedstrafikken har falt for første gang
- De beste AI-chatbotene å prøve ut: ChatGPT, Bard og mer
Dommeren sa Advokatene hadde gjort «bevisste unnvikelser og falske og villedende uttalelser til retten» og la til at de hadde «forlatt sine ansvar" ved å sende inn den A.I.-skrevne briefen før de står ved "de falske meningene etter at rettslige ordre har kalt deres eksistens inn i spørsmål."
Castel fortsatte: «Mange skader kommer fra innsending av falske meninger. Motparten kaster bort tid og penger på å avsløre bedraget. Rettens tid er tatt fra andre viktige bestrebelser.»
Dommeren la til at advokatenes handling "fremmer kynisme om advokatstanden og det amerikanske rettssystemet."
Advokatfirmaet Manhattan sa at det "respektfullt" var uenig i domstolens mening, og beskrev det som en "god tro-feil."
På et relatert rettsmøte tidligere denne måneden, sa Schwartz han ønsket å "beklage oppriktig" for det som hadde skjedd, og forklarte at han trodde han brukte en søkemotor og ikke hadde noen anelse om at AI-verktøyet kunne produsere usannheter. Han sa at han "angret dypt" på handlingene sine," og la til: "Jeg led både profesjonelt og personlig [på grunn av] den utbredte publisiteten denne saken har skapt. Jeg er både flau, ydmyket og ekstremt angrende.»
Hendelsen var knyttet til en sak tatt opp av advokatfirmaet som involverte en passasjer som saksøkte det colombianske flyselskapet Avianca etter å ha hevdet at han pådro seg en skade på et fly til New York City.
Avianca ba dommeren om å kaste saken ut, så passasjerens juridiske team utarbeidet et kort som siterte seks lignende saker i et forsøk på å overtale dommeren til å la deres klients sak fortsette. Schwartz fant disse tilfellene ved å spørre ChatGPT, men han klarte ikke å sjekke autentisiteten til resultatene. Aviancas juridiske team slo alarm da de sa at de ikke kunne finne sakene i korten.
I en egen kjennelse torsdag innvilget dommeren Aviancas begjæring om å avvise søksmålet mot den, og avsluttet hele den beklagelige episoden.
ChatGPT og andre chatbots som det har fått mye oppmerksomhet de siste månedene på grunn av deres evne til å snakke på en menneskelignende måte og dyktig utføre et voksende spekter av tekstbaserte oppgaver. Men de er også kjent for å finne på ting og presentere det som om det er ekte. Det er så utbredt at det til og med finnes en betegnelse for det: "halusinerende."
De som jobber med de generative AI-verktøyene utforsker måter å redusere hallusinasjoner på, men inntil da rådes brukere til å nøye sjekke eventuelle "fakta" som chatbotene spytter ut.
Redaktørenes anbefalinger
- Google Bard kan nå snakke, men kan det overdøve ChatGPT?
- ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
- ChatGPTs Bing-surfingsfunksjon er deaktivert på grunn av tilgangsfeil i betalingsmuren
- 81 % mener ChatGPT er en sikkerhetsrisiko, viser undersøkelsen
- Apples ChatGPT-rival kan automatisk skrive kode for deg
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.