Den klumpiga användningen av ChatGPT har fått en advokatbyrå i New York med 5 000 dollar i böter.
Efter att ha hört så mycket om OpenAI: s imponerande AI-drivna chatbot, bestämde sig advokat Steven Schwartz för att använda det för forskning, lägga till ChatGPT-genererade fall citat till ett juridiskt dokument som lämnades till en domare tidigare detta år. Men det visade sig snart att fallen helt hade tagits upp av chatboten.
Rekommenderade videor
USA: s distriktsdomare P. Kevin Castel beordrade på torsdagen advokaterna Steven Schwartz och Peter LoDuca, som tog över ärendet från sin medarbetare, och deras advokatbyrå Levidow, Levidow & Oberman, att betala 5 000 dollar i böter.
Relaterad
- ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
- ChatGPTs webbplatstrafik har minskat för första gången
- De bästa AI-chatbotarna att prova: ChatGPT, Bard och mer
sa domaren advokaterna hade gjort "handlingar av medvetet undvikande och falska och vilseledande uttalanden till domstolen", och tillade att de hade "övergett sina ansvar" genom att skicka in den A.I.-skrivna briefen innan de står vid "de falska åsikterna efter att rättsliga beslut har angett deras existens i fråga."
Fortsatte Castel: ”Många skador uppstår från inlämnande av falska åsikter. Motparten slösar tid och pengar på att avslöja bedrägeriet. Rättens tid tas från andra viktiga ansträngningar."
Domaren tillade att advokaternas agerande "främjar cynism om advokatkåren och det amerikanska rättssystemet."
Advokatbyrån på Manhattan sa att den "respektfullt" inte höll med domstolens åsikt och beskrev det som ett "fel i god tro".
Vid en relaterad domstolsförhandling tidigare denna månad, sa Schwartz han ville "uppriktigt be om ursäkt" för det som hade hänt och förklarade att han trodde att han använde en sökmotor och inte hade någon aning om att AI-verktyget kunde producera osanningar. Han sa att han "djupt ångrade" sina handlingar," och tillade: "Jag led både professionellt och personligt [på grund av] den omfattande publiciteten som denna fråga har genererat. Jag är både generad, förödmjukad och extremt ångerfull.”
Händelsen var kopplad till ett ärende som togs upp av advokatbyrån som involverade en passagerare som stämde det colombianska flygbolaget Avianca efter att ha hävdat att han led av en skada på ett flyg till New York City.
Avianca bad domaren att kasta bort fallet, så passagerarens juridiska team sammanställde en kortfattad beskrivning av sex liknande fall i ett försök att övertala domaren att låta sin klients fall fortsätta. Schwartz hittade dessa fall genom att fråga ChatGPT, men han misslyckades med att kontrollera äktheten av resultaten. Aviancas juridiska team slog larm när de sa att de inte kunde lokalisera fallen i korten.
I en separat order på torsdagen beviljade domaren Aviancas yrkande om att avvisa stämningsansökan mot den, vilket avslutade hela den ledsna episoden.
ChatGPT och andra chatbots som den har fått mycket uppmärksamhet de senaste månaderna på grund av deras förmåga att konversera på ett mänskligt sätt och skickligt utföra ett växande utbud av textbaserade uppgifter. Men de är också kända för att hitta på saker och presentera det som om det är på riktigt. Det är så utbrett att det till och med finns en term för det: "hallucinerande."
De som arbetar med de generativa AI-verktygen utforskar sätt att minska hallucinationer, men tills dess rekommenderas användare att noggrant kontrollera eventuella "fakta" som chatbotarna spottar ur sig.
Redaktörens rekommendationer
- Google Bard kan nu tala, men kan det överrösta ChatGPT?
- ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
- ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel
- 81 % tycker att ChatGPT är en säkerhetsrisk, visar undersökningen
- Apples ChatGPT-konkurrent kan automatiskt skriva kod åt dig
Uppgradera din livsstilDigitala trender hjälper läsarna att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.