Un avocat désolé pour les fausses citations judiciaires créées par ChatGPT

On a beaucoup parlé ces derniers mois de la façon dont la nouvelle vague de chatbots alimentés par l'IA, ChatGPT parmi eux, pourrait bouleverser de nombreux secteurs, y compris la profession juridique.

Cependant, à en juger par ce qui s'est produit récemment dans une affaire à New York, il semble qu'il faudra attendre un certain temps avant que des avocats hautement qualifiés ne soient balayés par la technologie.

Vidéos recommandées

L'épisode bizarre a commencé lorsque Roberto Mata a poursuivi une compagnie aérienne colombienne après avoir affirmé avoir été blessé lors d'un vol à destination de New York.

En rapport

  • Les meilleurs auteurs exigent une rémunération des entreprises d’IA pour l’utilisation de leurs travaux
  • GPT-4: comment utiliser le chatbot IA qui fait honte à ChatGPT
  • Wix utilise ChatGPT pour vous aider à créer rapidement un site Web complet

La compagnie aérienne Avianca a demandé au juge de classer l’affaire. L’équipe juridique de Mata a donc rédigé un mémoire citant une demi-douzaine de cas similaires qui s'étaient produits dans le but de persuader le juge de laisser le dossier de leur client procéder,

le New York Times signalé.

Le problème était que les avocats de la compagnie aérienne et le juge n’ont pu trouver aucune preuve des cas mentionnés dans le mémoire. Pourquoi? Parce que ChatGPT les avait tous inventés.

Le créateur du mémoire, Steven A. Schwartz – un avocat très expérimenté du cabinet Levidow, Levidow & Oberman – a admis dans un affidavit qu'il avait utilisé Le très célèbre chatbot ChatGPT d'OpenAI pour rechercher des cas similaires, mais a déclaré qu'il s'était « révélé être non fiable."

Schwartz a déclaré au juge qu'il n'avait jamais utilisé ChatGPT auparavant et qu'il "ignorait donc la possibilité que son contenu puisse être faux".

Lors de la création du dossier, Schwartz a même demandé à ChatGPT de confirmer que les cas s'étaient réellement produits. Le chatbot, toujours serviable, a répondu par l’affirmative, affirmant que des informations les concernant pouvaient être trouvées dans des « bases de données juridiques réputées ».

L’avocat au centre de la tempête a déclaré qu’il « regrette grandement » d’avoir utilisé ChatGPT pour créer le dossier et a insisté sur le fait qu’il « ne le ferait jamais à l’avenir sans une vérification absolue de son authenticité ».

En regardant ce qu’il a décrit comme un mémoire juridique rempli de « fausses décisions judiciaires, avec de fausses citations et de fausses décisions internes », citations », et qualifiant la situation de sans précédent, le juge Castel a ordonné une audience au début du mois prochain pour examiner pénalités possibles.

Bien qu'impressionnant dans la manière dont ils produisent un texte fluide et de haute qualité, ChatGPT et d'autres chatbots l'apprécient. sont également connus pour inventer des choses et les présenter comme si c'était réel - quelque chose que Schwartz a appris grâce à lui. coût. Le phénomène est connu comme « hallucinant » et constitue l’un des plus grands défis auxquels sont confrontés les développeurs humains derrière les chatbots alors qu’ils cherchent à résoudre ce problème très problématique.

Dans un autre exemple récent d’outil d’IA générative hallucinant, un Le maire australien a accusé ChatGPT d'avoir inventé des mensonges à son sujet, notamment en affirmant qu'il avait été emprisonné pour corruption alors qu'il travaillait pour une banque il y a plus de dix ans.

Le maire, Brian Hood, était en fait un lanceur d’alerte dans cette affaire et n’a jamais été accusé d’un crime. Il a donc été plutôt contrarié lorsque les gens ont commencé à l’informer de la réécriture de l’histoire par le chatbot.

Recommandations des rédacteurs

  • Voici pourquoi les gens pensent que GPT-4 pourrait devenir plus stupide avec le temps
  • ChatGPT: les dernières actualités, controverses et astuces à connaître
  • Qu'est-ce qu'une invite DAN pour ChatGPT?
  • Google Bard peut désormais parler, mais peut-il étouffer ChatGPT?
  • Le créateur de ChatGPT, OpenAI, fait face à une enquête de la FTC sur les lois sur la protection des consommateurs

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.