V posledných mesiacoch sa veľa hovorilo o tom, ako nová vlna chatbotov poháňaných AI, Medzi nimi aj ChatGPT, by mohla ohroziť mnohé odvetvia vrátane právnickej profesie.
Podľa toho, čo sa nedávno stalo v prípade v New Yorku, sa však zdá, že môže chvíľu trvať, kým táto technológia zmietne vysoko kvalifikovaných právnikov.
Odporúčané videá
Bizarná epizóda sa začala, keď Roberto Mata zažaloval kolumbijskú leteckú spoločnosť po tom, čo tvrdil, že utrpel zranenie počas letu do New Yorku.
Súvisiace
- Špičkoví autori požadujú od firiem AI platbu za používanie ich práce
- GPT-4: ako používať chatbota AI, ktorý robí ChatGPT hanbou
- Wix používa ChatGPT, ktorý vám pomôže rýchlo vytvoriť celý web
Letecká spoločnosť Avianca požiadala sudcu, aby prípad zamietol, a tak Matov právny tím zostavil stručnú citáciu pol tucta podobných prípadov, ku ktorým došlo v snahe presvedčiť sudcu, aby povolil prípad ich klienta pokračovať, New York Times nahlásené.
Problém bol v tom, že právnici leteckej spoločnosti a sudca nedokázali nájsť žiadne dôkazy o prípadoch uvedených v stručnej správe. prečo? Pretože ChatGPT ich všetky vymyslel.
Tvorca briefu, Steven A. Schwartz – veľmi skúsený právnik vo firme Levidow, Levidow & Oberman – priznal v čestnom vyhlásení, že použil Oslávený chatbot ChatGPT od OpenAI na vyhľadávanie podobných prípadov, ale povedal, že sa „zjavil ako nespoľahlivé.”
Schwartz povedal sudcovi, že ChatGPT predtým nepoužil a „preto si nebol vedomý možnosti, že by jeho obsah mohol byť falošný“.
Schwartz pri vytváraní briefu dokonca požiadal ChatGPT, aby potvrdil, že prípady sa naozaj stali. Vždy užitočný chatbot odpovedal kladne a povedal, že informácie o nich možno nájsť v „renomovaných právnych databázach“.
Právnik v centre búrky povedal, že „veľmi ľutuje“, že použil ChatGPT na vytvorenie briefu a trval na tom, že „v budúcnosti to nikdy neurobí bez absolútneho overenia jeho pravosti“.
Pri pohľade na to, čo opísal ako právne podanie plné „falošných súdnych rozhodnutí, s falošnými citáciami a falošnými internými údajmi citácií,“ a opísal situáciu ako bezprecedentnú, sudca Castel nariadil vypočutie na začiatok budúceho mesiaca, aby zvážil prípadné sankcie.
ChatGPT a iným chatbotom sa to páči, aj keď sú pôsobivé v spôsobe, akým vytvárajú plynulý text vysokej kvality sú tiež známi tým, že si veci vymýšľajú a prezentujú to, ako keby to boli skutočné – niečo, čo sa Schwartz naučil náklady. Tento jav je známy ako „halucinácia“ a je jednou z najväčších výziev, ktorým čelia ľudskí vývojári stojaci za chatbotmi, keď sa snažia vyriešiť tento veľmi problematický záhyb.
V ďalšom nedávnom príklade halucinácie generatívneho nástroja AI je an Austrálsky starosta obvinil ChatGPT z vytvárania klamstiev o ňom vrátane toho, že bol uväznený za úplatkárstvo, keď pracoval pre banku pred viac ako desiatimi rokmi.
Starosta Brian Hood bol v skutočnosti informátorom prípadu a nikdy nebol obvinený zo zločinu, takže bol dosť naštvaný, keď ho ľudia začali informovať o prepisovaní histórie chatbotom.
Odporúčania redaktorov
- Tu je dôvod, prečo si ľudia myslia, že GPT-4 môže byť časom hlúpejší
- ChatGPT: najnovšie správy, kontroverzie a tipy, ktoré potrebujete vedieť
- Čo je výzva DAN pre ChatGPT?
- Google Bard teraz môže hovoriť, ale dokáže prehlušiť ChatGPT?
- Výrobca ChatGPT OpenAI čelí vyšetrovaniu FTC v súvislosti so zákonmi na ochranu spotrebiteľa
Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.