Viime kuukausina on puhuttu paljon siitä, kuinka tekoälyllä toimivien chatbottien uusi aalto, ChatGPT heidän joukossaan, voi kaataa monia toimialoja, mukaan lukien lakimiehet.
Kuitenkin päätellen siitä, mitä äskettäin tapahtui New Yorkissa tapahtuneessa tapauksessa, näyttää siltä, että voi kestää jonkin aikaa, ennen kuin korkeasti koulutetut asianajajat pyyhkäisevät syrjään tekniikan avulla.
Suositellut videot
Outo jakso alkoi, kun Roberto Mata haastoi kolumbialaisen lentoyhtiön oikeuteen väittäen, että hän loukkaantui lennolla New Yorkiin.
Liittyvät
- Huippukirjailijat vaativat tekoälyyrityksiltä maksua työnsä käytöstä
- GPT-4: kuinka käyttää AI-chatbotia, joka saa ChatGPT: n häpeään
- Wix käyttää ChatGPT: tä auttaakseen sinua rakentamaan nopeasti koko verkkosivuston
Lentoyhtiö Avianca pyysi tuomaria hylkäämään asian, joten Matan lakitiimi laati lyhyen lainauksen puoli tusinaa samankaltaista tapausta, jotka olivat tapahtuneet yrittäessään suostutella tuomaria päästämään asiakkaansa tapaukseen edetä, New York Times raportoitu.
Ongelmana oli, että lentoyhtiön asianajajat ja tuomari eivät löytäneet todisteita tiedotteessa mainituista tapauksista. Miksi? Koska ChatGPT oli keksinyt ne kaikki.
Raportin luoja Steven A. Schwartz – erittäin kokenut asianajaja Levidow, Levidow & Oberman -toimistossa – myönsi valaehtoisessa lausunnossa, että hän oli käyttänyt OpenAI: n paljon juhlittu ChatGPT-chatbot etsimään samanlaisia tapauksia, mutta sanoi, että se oli "paljasti itsensä epäluotettava."
Schwartz kertoi tuomarille, että hän ei ollut käyttänyt ChatGPT: tä aiemmin, ja "täten hän ei ollut tietoinen mahdollisuudesta, että sen sisältö voisi olla väärä".
Esittelyä tehdessään Schwartz jopa pyysi ChatGPT: tä vahvistamaan, että tapaukset todella tapahtuivat. Aina hyödyllinen chatbot vastasi myöntävästi sanoen, että tietoa heistä löytyi "hyvämaineisista laillisista tietokannoista".
Myrskyn keskellä ollut asianajaja sanoi, että hän "pahoittelee suuresti" ChatGPT: n käyttöä esittelyn laatimiseen ja vaati, ettei hän "ei koskaan tekisi niin tulevaisuudessa ilman ehdotonta sen aitouden varmistamista".
Tarkastellaan sitä, mitä hän kuvaili oikeudelliseksi väitteeksi, joka on täynnä "valheellisia oikeuden päätöksiä, joissa on vääriä lainauksia ja vääriä sisäisiä lainauksia”, ja kuvailee tilannetta ennennäkemättömäksi tuomari Castel on määrännyt kuulemisen ensi kuun alkuun harkittavaksi. mahdolliset rangaistukset.
ChatGPT ja muut chatbotit pitävät siitä, vaikka ne tuottavat korkealaatuista juoksevaa tekstiä joiden tiedetään myös keksivän asioita ja esittävän ne ikään kuin ne olisivat todellisia – mitä Schwartz on oppinut hänelle kustannus. Ilmiö tunnetaan "hallusinaatioina", ja se on yksi suurimmista haasteista, joita chatbottien takana olevat ihmiskehittäjät kohtaavat, kun he yrittävät tasoittaa tätä erittäin ongelmallista ryppyä.
Toisessa tuoreessa esimerkissä generatiivisen tekoälytyökalun hallusinaatiosta, an Australian pormestari syytti ChatGPT: tä valheita hänestä, mukaan lukien se, että hänet tuomittiin lahjonnasta työskennellessään pankissa yli kymmenen vuotta sitten.
Pormestari Brian Hood oli itse asiassa ilmiantaja asiassa, eikä häntä koskaan syytetty rikoksesta, joten hän oli melko järkyttynyt, kun ihmiset alkoivat kertoa hänelle chatbotin historian uudelleenkirjoittamisesta.
Toimittajien suositukset
- Tästä syystä ihmiset ajattelevat, että GPT-4 saattaa muuttua tyhmemmäksi ajan myötä
- ChatGPT: viimeisimmät uutiset, kiistat ja vinkit, jotka sinun on tiedettävä
- Mikä on DAN-kehote ChatGPT: lle?
- Google Bard voi nyt puhua, mutta voiko se tukahduttaa ChatGPT: n?
- ChatGPT-valmistaja OpenAI kohtaa FTC: n tutkinnan kuluttajansuojalaeista
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.