Právníkovi se omlouvám za falešné soudní citace vytvořené ChatGPT

V posledních měsících se hodně mluví o tom, jak nová vlna chatbotů poháněných umělou inteligencí, ChatGPT mezi nimi, by mohla zvrátit řadu průmyslových odvětví, včetně právnické profese.

Nicméně, soudě podle toho, co se nedávno stalo v případu v New Yorku, se zdá, že může chvíli trvat, než budou vysoce kvalifikovaní právníci smeteni technologií.

Doporučená videa

Bizarní epizoda začala, když Roberto Mata žaloval kolumbijskou leteckou společnost poté, co tvrdil, že utrpěl zranění při letu do New Yorku.

Příbuzný

  • Špičkoví autoři požadují od firem zabývajících se umělou inteligencí platby za použití jejich díla
  • GPT-4: jak používat chatbota s umělou inteligencí, který dělá ChatGPT hanbou
  • Wix používá ChatGPT, který vám pomůže rychle vytvořit celý web

Letecká společnost Avianca požádala soudce, aby případ odmítl, a tak Matův právní tým sestavil stručnou citaci půl tuctu podobných případů, ke kterým došlo ve snaze přesvědčit soudce, aby případ jejich klienta nechal pokračovat, New York Times hlášeno.

Problém byl v tom, že právníci letecké společnosti a soudce nebyli schopni najít žádné důkazy o případech zmíněných ve zprávě. Proč? Protože ChatGPT je všechny vymyslel.

Tvůrce briefu, Steven A. Schwartz – velmi zkušený právník ve firmě Levidow, Levidow & Oberman – v čestném prohlášení přiznal, že použil Oslavovaný chatbot ChatGPT od OpenAI, který hledal podobné případy, ale řekl, že „se ukázal jako nespolehlivý."

Schwartz řekl soudci, že ChatGPT předtím nepoužil, a „proto si nebyl vědom možnosti, že by jeho obsah mohl být falešný“.

Při vytváření briefu Schwartz dokonce požádal ChatGPT, aby potvrdil, že se případy skutečně staly. Vždy užitečný chatbot odpověděl kladně a řekl, že informace o nich lze nalézt v „renomovaných právních databázích“.

Právník uprostřed bouře řekl, že „velmi lituje“ toho, že použil ChatGPT k vytvoření briefu, a trval na tom, že „tak nikdy v budoucnu neučiní bez absolutního ověření jeho pravosti“.

Při pohledu na to, co popsal jako právní podání plné „falešných soudních rozhodnutí, s falešnými citacemi a falešnými interními“. citací,“ a popsal situaci jako bezprecedentní, soudce Castel nařídil slyšení na začátek příštího měsíce, aby zvážil případné sankce.

ChatGPT a další chatboti to mají rádi, přestože jsou působivé ve způsobu, jakým vytvářejí plynulý text vysoké kvality je také známo, že si věci vymýšlejí a prezentují je, jako by to bylo skutečné – něco, co se Schwartz naučil náklady. Tento fenomén je známý jako „halucinace“ a je jednou z největších výzev, kterým čelí lidští vývojáři stojící za chatboty, když se snaží vyžehlit tento velmi problematický záhyb.

V dalším nedávném příkladu halucinace generativního nástroje AI je an Australský starosta obvinil ChatGPT z vytváření lží o něm, včetně toho, že byl před více než deseti lety uvězněn za úplatkářství, když pracoval pro banku.

Starosta Brian Hood byl ve skutečnosti informátorem případu a nikdy nebyl obviněn z trestného činu, takže byl spíše naštvaný, když ho lidé začali informovat o chatbotově přepisování historie.

Doporučení redakce

  • Zde je důvod, proč si lidé myslí, že GPT-4 může být časem hloupější
  • ChatGPT: nejnovější zprávy, kontroverze a tipy, které potřebujete vědět
  • Co je výzva DAN pro ChatGPT?
  • Google Bard nyní umí mluvit, ale dokáže přehlušit ChatGPT?
  • Tvůrce ChatGPT OpenAI čelí vyšetřování FTC kvůli zákonům na ochranu spotřebitele

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.