S-a vorbit mult în ultimele luni despre modul în care noul val de chatbot alimentați cu inteligență artificială, ChatGPT printre ele, ar putea răsturna numeroase industrii, inclusiv profesia de avocat.
Cu toate acestea, judecând după ceea ce s-a întâmplat recent într-un caz din New York City, se pare că ar putea trece ceva timp până când avocații cu înaltă calificare vor fi duși deoparte de tehnologie.
Videoclipuri recomandate
Episodul bizar a început când Roberto Mata a dat în judecată o companie aeriană columbiană după ce a susținut că a suferit o rănire pe un zbor către New York City.
Legate de
- Autorii de top cer plăți de la firmele de inteligență artificială pentru utilizarea lucrărilor lor
- GPT-4: cum să folosești chatbot-ul AI care face ChatGPT de rușine
- Wix folosește ChatGPT pentru a vă ajuta să construiți rapid un întreg site
Compania aeriană, Avianca, i-a cerut judecătorului să respingă cazul, așa că echipa juridică a lui Mata a pregătit un scurt o jumătate de duzină de cazuri similare care au avut loc în efortul de a-l convinge pe judecător să lase cazul clientului lor continua,
New York Times raportat.Problema a fost că avocații companiei aeriene și judecătorul nu au reușit să găsească nicio dovadă a cazurilor menționate în înscris. De ce? Pentru că ChatGPT le inventase pe toate.
Creatorul briefului, Steven A. Schwartz – un avocat cu înaltă experiență în cadrul firmei Levidow, Levidow & Oberman – a recunoscut într-o declarație pe propria răspundere că a folosit Mult celebrul chatbot ChatGPT al OpenAI pentru a căuta cazuri similare, dar a spus că „s-a arătat a fi nesigur.”
Schwartz i-a spus judecătorului că nu a mai folosit ChatGPT și „prin urmare nu era conștient de posibilitatea ca conținutul său să fie fals”.
La crearea briefului, Schwartz a cerut chiar și ChatGPT să confirme că cazurile s-au întâmplat cu adevărat. Chatbot-ul mereu util a răspuns afirmativ, spunând că informațiile despre ei pot fi găsite în „baze de date legale de renume”.
Avocatul din centrul furtunii a spus că „regretă foarte mult” că a folosit ChatGPT pentru a crea brief-ul și a insistat că „nu va face acest lucru niciodată în viitor fără verificarea absolută a autenticității sale”.
Privind ceea ce el a descris drept o declarație juridică plină de „decizii judiciare false, cu citate false și interne false citări” și descriind situația ca fiind fără precedent, judecătorul Castel a ordonat o audiere pentru începutul lunii viitoare pentru a lua în considerare posibile penalități.
Deși impresionează prin felul în care produc text fluid de înaltă calitate, ChatGPT și altor chatbot le place sunt, de asemenea, cunoscuți că inventează lucruri și le prezintă ca și cum ar fi reale - ceva ce Schwartz l-a învățat lui cost. Fenomenul este cunoscut sub denumirea de „halucinant” și este una dintre cele mai mari provocări cu care se confruntă dezvoltatorii umani din spatele chatbot-urilor, deoarece încearcă să rezolve această cută foarte problematică.
Într-un alt exemplu recent al unui instrument AI generativ care halucinează, an Primarul australian a acuzat ChatGPT de a crea minciuni despre el, inclusiv că a fost închis pentru luare de mită în timp ce lucra pentru o bancă în urmă cu mai bine de un deceniu.
Primarul, Brian Hood, a fost de fapt un denunțător în acest caz și nu a fost niciodată acuzat de o crimă, așa că a fost destul de supărat când oamenii au început să-l informeze despre rescrierea istoriei de către chatbot.
Recomandările editorilor
- Iată de ce oamenii cred că GPT-4 ar putea deveni mai prost în timp
- ChatGPT: cele mai recente știri, controverse și sfaturi pe care trebuie să le cunoașteți
- Ce este un prompt DAN pentru ChatGPT?
- Google Bard poate vorbi acum, dar poate îneca ChatGPT?
- Creatorul de ChatGPT OpenAI se confruntă cu o anchetă FTC cu privire la legile privind protecția consumatorilor
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.