V zadnjih mesecih je bilo veliko govora o tem, kako novi val klepetalnih robotov, ki jih poganja AI, ChatGPT med njimi, bi lahko obrnil številne industrije, vključno s pravnim poklicem.
Toda sodeč po tem, kar se je nedavno zgodilo v primeru v New Yorku, se zdi, da bi lahko minilo nekaj časa, preden bo visoko usposobljene odvetnike odnesla tehnologija.
Priporočeni videoposnetki
Bizarna epizoda se je začela, ko je Roberto Mata tožil kolumbijsko letalsko družbo, potem ko je trdil, da se je poškodoval na letu v New York City.
Povezano
- Najboljši avtorji zahtevajo plačilo od podjetij AI za uporabo njihovega dela
- GPT-4: kako uporabljati klepetalni robot AI, ki osramoti ChatGPT
- Wix uporablja ChatGPT, da vam pomaga hitro zgraditi celotno spletno mesto
Letalska družba Avianca je prosila sodnika, naj zavrne primer, zato je Matina pravna ekipa sestavila kratko navedbo pol ducata podobnih primerov, ki so se zgodili, da bi prepričali sodnika, da prepusti primer njihove stranke nadaljuj, New York Times poročali.
Težava je bila v tem, da odvetniki letalske družbe in sodnik niso mogli najti nobenih dokazov o primerih, omenjenih v zapisniku. Zakaj? Ker si jih je ChatGPT vse izmislil.
Ustvarjalec povzetka, Steven A. Schwartz – zelo izkušen odvetnik v podjetju Levidow, Levidow & Oberman – je v pisni izjavi priznal, da je uporabil Zelo znani chatbot OpenAI ChatGPT za iskanje podobnih primerov, vendar je dejal, da se je "razkril, da je nezanesljiv."
Schwartz je sodniku povedal, da še ni uporabljal ChatGPT in "zato se ni zavedal možnosti, da bi bila njegova vsebina lažna."
Pri ustvarjanju povzetka je Schwartz celo prosil ChatGPT, naj potrdi, da so se primeri res zgodili. Vedno uporabni chatbot je odgovoril pritrdilno in dejal, da je podatke o njih mogoče najti v "uglednih pravnih bazah podatkov".
Odvetnik v središču nevihte je dejal, da "močno obžaluje" uporabo ChatGPT za ustvarjanje povzetka in vztrajal, da "tega ne bo nikoli storil v prihodnosti brez popolnega preverjanja njegove pristnosti."
Če pogledamo, kar je opisal kot pravno vlogo, polno »lažnih sodnih odločb, z lažnimi citati in lažnimi notranjimi citatov,« in situacijo opisal kot brez primere, je sodnik Castel odredil zaslišanje za začetek naslednjega meseca, da bi preučil možne kazni.
Čeprav je način ustvarjanja tekočega besedila visoke kakovosti impresiven, je ChatGPT in drugim chatbotom všeč znani tudi po tem, da si stvari izmišljujejo in jih predstavljajo, kot da so resnične – česar se je Schwartz naučil stroški. Pojav je znan kot "haluciniranje" in je eden največjih izzivov, s katerimi se soočajo razvijalci ljudi, ki stojijo za chatboti, ko želijo zgladiti to zelo problematično gubo.
V drugem nedavnem primeru halucinacije generativnega orodja AI, an Avstralski župan je obtožil ChatGPT ustvarjanja laži o njem, vključno s tem, da je bil pred več kot desetletjem zaprt zaradi podkupovanja, ko je delal za banko.
Župan Brian Hood je bil v tem primeru dejansko žvižgač in nikoli ni bil obtožen kaznivega dejanja, zato je bil precej razburjen, ko so ga ljudje začeli obveščati o prepisovanju zgodovine s strani chatbota.
Priporočila urednikov
- Zato ljudje mislijo, da GPT-4 sčasoma postaja vse bolj neumen
- ChatGPT: najnovejše novice, polemike in nasveti, ki jih morate vedeti
- Kaj je DAN poziv za ChatGPT?
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
- Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
Nadgradite svoj življenjski slogDigitalni trendi pomagajo bralcem slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.