Gli avvocati di New York sono stati multati per aver utilizzato falsi casi ChatGPT in casi legali

L'uso maldestro di ChatGPT ha ottenuto uno studio legale di New York City con una multa di $ 5.000.

Avendo sentito tanto parlare dell'impressionante chatbot basato sull'intelligenza artificiale di OpenAI, l'avvocato Steven Schwartz ha deciso di usarlo it per la ricerca, aggiungendo citazioni di casi generate da ChatGPT a una memoria legale consegnata a un giudice in precedenza anno. Ma presto è emerso che i casi erano stati interamente truccati dal chatbot.

Video consigliati

Il giudice distrettuale degli Stati Uniti P. Giovedì Kevin Castel ha ordinato agli avvocati Steven Schwartz e Peter LoDuca, che ha rilevato il caso dal suo collega, e al loro studio legale Levidow, Levidow & Oberman, di pagare una multa di $ 5.000.

Imparentato

  • Il produttore di ChatGPT OpenAI affronta un'indagine FTC sulle leggi sulla protezione dei consumatori
  • Il traffico del sito Web ChatGPT è diminuito per la prima volta
  • I migliori chatbot AI da provare: ChatGPT, Bard e altri

Il giudice ha detto gli avvocati avevano compiuto “atti di consapevole elusione e dichiarazioni false e fuorvianti alla corte”, aggiungendo di aver “abbandonato il loro responsabilità” presentando la memoria scritta da A.I. prima di stare a guardare “le false opinioni dopo che gli ordini giudiziari hanno messo in discussione la loro esistenza domanda."

continuò Castel: “Molti danni derivano dalla presentazione di false opinioni. La controparte perde tempo e denaro per denunciare l'inganno. Il tempo della corte è sottratto ad altri importanti impegni”.

Il giudice ha aggiunto che l'azione degli avvocati "promuove il cinismo nei confronti della professione legale e del sistema giudiziario americano".

Lo studio legale di Manhattan ha affermato di essere "rispettosamente" in disaccordo con l'opinione della corte, descrivendolo come un "errore in buona fede".

In un'udienza correlata all'inizio di questo mese, Schwartz ha detto ha voluto “scusarsi sinceramente” per l'accaduto, spiegando che pensava di usare un motore di ricerca e non aveva idea che lo strumento AI potesse produrre falsità. Ha detto di essere "profondamente dispiaciuto" per le sue azioni", aggiungendo: "Ho sofferto sia professionalmente che personalmente [a causa] dell'ampia pubblicità che questo problema ha generato. Sono entrambi imbarazzato, umiliato ed estremamente pentito.

L'incidente è stato collegato a un caso avviato dallo studio legale che coinvolge un passeggero che ha citato in giudizio la compagnia aerea colombiana Avianca dopo aver affermato di aver subito un infortunio su un volo per New York City.

Avianca ha chiesto al giudice di archiviare il caso, quindi il team legale del passeggero ha compilato una memoria citando sei casi simili nel tentativo di convincere il giudice a lasciar procedere il caso del loro cliente. Schwartz ha trovato quei casi chiedendo a ChatGPT, ma non è riuscito a verificare l'autenticità dei risultati. Il team legale di Avianca ha lanciato l'allarme quando ha affermato di non poter individuare i casi contenuti nel brief.

Giovedì, con separata ordinanza, il giudice ha accolto l'istanza di Avianca di archiviare la causa contro di essa, ponendo fine all'intero spiacevole episodio.

ChatGPT e altri chatbot simili hanno guadagnato molta attenzione negli ultimi mesi grazie alla loro capacità di conversare in modo umano ed eseguire abilmente una gamma crescente di attività basate su testo. Ma sono anche noti per inventare le cose e presentarle come se fossero reali. È così diffuso che esiste persino un termine per definirlo: "allucinante".

Coloro che lavorano sugli strumenti di intelligenza artificiale generativa stanno esplorando modi per ridurre le allucinazioni, ma fino ad allora si consiglia agli utenti di controllare attentamente eventuali "fatti" che i chatbot sputano fuori.

Raccomandazioni della redazione

  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • ChatGPT: le ultime notizie, controversie e suggerimenti che devi conoscere
  • La funzione di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
  • L'81% pensa che ChatGPT sia un rischio per la sicurezza, rileva il sondaggio
  • Il rivale ChatGPT di Apple potrebbe scrivere automaticamente il codice per te

Aggiorna il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, recensioni divertenti sui prodotti, editoriali penetranti e anticipazioni uniche.