L'utilisation maladroite de ChatGPT a atterri à un cabinet d'avocats de New York avec une amende de 5 000 $.
Ayant tant entendu parler de l'impressionnant chatbot alimenté par l'IA d'OpenAI, l'avocat Steven Schwartz a décidé d'utiliser pour la recherche, en ajoutant des citations de cas générées par ChatGPT à un dossier juridique remis à un juge plus tôt cette année. Mais il est vite apparu que les cas avaient été entièrement inventés par le chatbot.
Vidéos recommandées
Juge de district américain P. Kevin Castel a condamné jeudi les avocats Steven Schwartz et Peter LoDuca, qui ont repris l'affaire de son collègue, et leur cabinet d'avocats Levidow, Levidow & Oberman, à payer une amende de 5 000 dollars.
En rapport
- Le fabricant de ChatGPT OpenAI fait face à une enquête de la FTC sur les lois de protection des consommateurs
- Le trafic du site ChatGPT a chuté pour la première fois
- Les meilleurs chatbots IA à essayer: ChatGPT, Bard, et plus
Le juge a dit les avocats avaient fait "des actes d'évitement conscient et des déclarations fausses et trompeuses au tribunal", ajoutant qu'ils avaient "abandonné leur responsabilités" en soumettant le mémoire écrit par A.I. avant de se tenir à côté "des fausses opinions après que des ordonnances judiciaires ont mis leur existence en cause". question."
Castel a continué: « De nombreux préjudices découlent de la soumission de fausses opinions. La partie adverse perd du temps et de l'argent à dénoncer la supercherie. Le temps du tribunal est pris sur d’autres efforts importants.
Le juge a ajouté que l'action des avocats "favorise le cynisme à l'égard de la profession juridique et du système judiciaire américain".
Le cabinet d'avocats de Manhattan a déclaré qu'il était "respectueusement" en désaccord avec l'avis du tribunal, le décrivant comme une "erreur de bonne foi".
Lors d'une audience connexe plus tôt ce mois-ci, Schwartz a dit il voulait "sincèrement s'excuser" pour ce qui s'était passé, expliquant qu'il pensait utiliser un moteur de recherche et n'avait aucune idée que l'outil d'IA pouvait produire des contrevérités. Il a dit qu'il « regrettait profondément » ses actions », ajoutant: « J'ai souffert à la fois professionnellement et personnellement [à cause de] la large publicité que ce problème a générée. Je suis à la fois gêné, humilié et extrêmement plein de remords.
L'incident était lié à une affaire prise en charge par le cabinet d'avocats impliquant un passager qui a poursuivi la compagnie aérienne colombienne Avianca après avoir affirmé avoir subi une blessure lors d'un vol à destination de New York.
Avianca a demandé au juge de rejeter l'affaire, alors l'équipe juridique du passager a rédigé un mémoire citant six cas similaires dans le but de persuader le juge de laisser l'affaire de leur client se poursuivre. Schwartz a trouvé ces cas en demandant à ChatGPT, mais il n'a pas vérifié l'authenticité des résultats. L'équipe juridique d'Avianca a sonné l'alarme lorsqu'elle a déclaré qu'elle ne pouvait pas localiser les cas contenus dans le dossier.
Dans une ordonnance distincte jeudi, le juge a accueilli la requête d'Avianca de rejeter la poursuite contre elle, mettant fin à tout l'épisode désolé.
ChatGPT et d'autres chatbots similaires ont attiré beaucoup d'attention ces derniers mois en raison de leur capacité à converser de manière humaine et à effectuer habilement une gamme croissante de tâches textuelles. Mais ils sont aussi connus pour inventer des choses et les présenter comme si c'était réel. C'est tellement répandu qu'il y a même un terme pour ça: "halluciner".
Ceux qui travaillent sur les outils d'IA générative explorent moyens de réduire les hallucinations, mais jusque-là, les utilisateurs sont invités à vérifier attentivement tous les « faits » que les chatbots crachent.
Recommandations des éditeurs
- Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
- ChatGPT: les dernières actualités, controverses et astuces à connaître
- La fonctionnalité de navigation Bing de ChatGPT est désactivée en raison d'une faille d'accès au mur payant
- 81 % pensent que ChatGPT est un risque pour la sécurité, selon une enquête
- Le rival ChatGPT d'Apple peut automatiquement écrire du code pour vous
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde trépidant de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.