Viimastel kuudel on palju räägitud sellest, kuidas tehisintellekti toega vestlusrobotite uus laine, ChatGPT nende hulgas, võib paljusid tööstusharusid, sealhulgas juristi, pöördesse ajada.
Hiljuti New Yorgis juhtunu põhjal näib aga, et võib kuluda veidi aega, enne kui kõrgelt koolitatud advokaadid tehnoloogia kõrvale lükkab.
Soovitatud videod
Kummaline episood sai alguse, kui Roberto Mata kaebas kohtusse Columbia lennufirma, kuna väitis, et sai New Yorki suunduval lennul vigastuse.
Seotud
- Tippautorid nõuavad tehisintellektifirmadelt nende töö kasutamise eest tasu
- GPT-4: kuidas kasutada AI-vestlusbotit, mis teeb ChatGPT-le häbi
- Wix kasutab ChatGPT-d, mis aitab teil kiiresti terve veebisaidi luua
Lennufirma Avianca palus kohtunikul juhtum tagasi lükata, nii et Mata juriidiline meeskond koostas lühikese tsiteeri pool tosinat sarnast juhtumit, mis olid aset leidnud selleks, et veenda kohtunikku oma kliendi juhtumit lubama edasi, New York Times teatatud.
Probleem seisnes selles, et lennufirma advokaadid ja kohtunik ei suutnud leida tõendeid lühikokkuvõttes mainitud juhtumite kohta. Miks? Sest ChatGPT oli need kõik välja mõelnud.
Lühikese looja Steven A. Schwartz – väga kogenud advokaat firmas Levidow, Levidow & Oberman – tunnistas vandeavalduses, et ta kasutas OpenAI palju tähistatud ChatGPT vestlusbot, et otsida sarnaseid juhtumeid, kuid ütles, et see on "selgitanud end olevat ebausaldusväärne."
Schwartz ütles kohtunikule, et ta pole varem ChatGPT-d kasutanud ja "seetõttu polnud ta teadlik võimalusest, et selle sisu võib olla vale."
Lühikokkuvõtte loomisel palus Schwartz isegi ChatGPT-l kinnitada, et juhtumid tõesti juhtusid. Alati abivalmis vestlusbot vastas jaatavalt, öeldes, et teavet nende kohta võib leida "mainega juriidilistest andmebaasidest".
Tormi keskmes olnud advokaat ütles, et ta "väga kahetseb" ChatGPT kasutamist lühikokkuvõtte koostamiseks ja nõudis, et ta "ei teeks seda tulevikus ilma selle autentsuse absoluutse kontrollimiseta".
Vaadates seda, mida ta kirjeldas kui juriidilist esildist, mis on täis „võltsitud kohtuotsuseid, võltsitud tsitaate ja võltsitud sisemisi tsitaadid," ja kirjeldades olukorda enneolematuna, on kohtunik Castel andnud korralduse korraldada kohtuistung järgmise kuu alguses, et kaaluda. võimalikud karistused.
Kuigi see on muljetavaldav selle poolest, et nad toodavad kvaliteetset voolavat teksti, meeldib see ChatGPT-le ja teistele vestlusrobotidele on ka teada, et nad mõtlevad asju välja ja esitavad seda nii, nagu need oleksid tõelised – midagi, mida Schwartz on omale õppinud kulu. Nähtust tuntakse kui hallutsinatsiooni ja see on üks suurimaid väljakutseid, millega vestlusrobotite taga tegutsevad inimarendajad silmitsi seisavad, kui nad püüavad seda väga problemaatilise kortsu siluda.
Teises hiljutises näites hallutsineerivast generatiivsest AI-tööriistast on an Austraalia linnapea süüdistas ChatGPT-d tema kohta valede loomisest, sealhulgas selle kohta, et ta vangistati enam kui kümme aastat tagasi pangas töötades altkäemaksu võtmise eest.
Linnapea Brian Hood oli selles juhtumis tegelikult vilepuhuja ja teda ei süüdistatud kunagi kuriteos, nii et ta oli üsna ärritunud, kui inimesed hakkasid teda teavitama vestlusroti ajaloo ümberkirjutamisest.
Toimetajate soovitused
- Siin on põhjus, miks inimesed arvavad, et GPT-4 võib aja jooksul muutuda lollimaks
- ChatGPT: viimased uudised, vaidlused ja näpunäited, mida peate teadma
- Mis on DAN-i viip ChatGPT jaoks?
- Google Bard saab nüüd rääkida, kuid kas see võib ChatGPT-d välja uputada?
- ChatGPT tootja OpenAI seisab silmitsi FTC uurimisega tarbijakaitseseaduste üle
Uuenda oma elustiiliDigitaalsed suundumused aitavad lugejatel hoida silma peal kiirel tehnikamaailmal kõigi viimaste uudiste, lõbusate tooteülevaadete, sisukate juhtkirjade ja ainulaadsete lühiülevaadetega.