Anwalt entschuldigt sich für gefälschte Gerichtszitate, die von ChatGPT erstellt wurden

In den letzten Monaten wurde viel darüber gesprochen, wie die neue Welle KI-gestützter Chatbots, ChatGPT darunter, könnte zahlreiche Branchen, darunter auch die Anwaltschaft, auf den Kopf stellen.

Wenn man sich jedoch anschaut, was kürzlich in einem Fall in New York City passiert ist, könnte es wohl noch eine Weile dauern, bis hochqualifizierte Anwälte von der Technologie überwältigt werden.

Empfohlene Videos

Die bizarre Episode begann, als Roberto Mata eine kolumbianische Fluggesellschaft verklagte, nachdem er behauptet hatte, er habe auf einem Flug nach New York City eine Verletzung erlitten.

Verwandt

  • Top-Autoren verlangen von KI-Firmen eine Bezahlung für die Nutzung ihrer Arbeit
  • GPT-4: So verwenden Sie den KI-Chatbot, der ChatGPT in den Schatten stellt
  • Wix verwendet ChatGPT, um Ihnen beim schnellen Aufbau einer gesamten Website zu helfen

Die Fluggesellschaft Avianca forderte den Richter auf, den Fall abzuweisen, woraufhin Matas Anwaltsteam eine kurze Begründung verfasste ein halbes Dutzend ähnlicher Fälle, die eingetreten waren, um den Richter davon zu überzeugen, den Fall ihres Mandanten zuzulassen fortfahren,

Die New York Times gemeldet.

Das Problem bestand darin, dass die Anwälte der Fluggesellschaft und der Richter keine Beweise für die im Schriftsatz genannten Fälle finden konnten. Warum? Weil ChatGPT sie alle erfunden hatte.

Der Autor des Briefings, Steven A. Schwartz – ein sehr erfahrener Anwalt in der Kanzlei Levidow, Levidow & Oberman – gab in einer eidesstattlichen Erklärung zu, dass er dies getan hatte Der vielgepriesene ChatGPT-Chatbot von OpenAI soll nach ähnlichen Fällen suchen, sagte jedoch, dass er sich „entlarvt“ habe unzuverlässig."

Schwartz teilte dem Richter mit, dass er ChatGPT noch nie genutzt habe und „sich daher nicht der Möglichkeit bewusst war, dass der Inhalt falsch sein könnte“.

Bei der Erstellung des Briefings bat Schwartz ChatGPT sogar um eine Bestätigung, dass die Fälle tatsächlich passiert sind. Der immer hilfsbereite Chatbot bejahte dies und sagte, dass Informationen über sie in „seriösen juristischen Datenbanken“ zu finden seien.

Der Anwalt, der im Zentrum des Sturms stand, sagte, er bereue es „zutiefst“, ChatGPT zur Erstellung des Briefings genutzt zu haben, und betonte, er werde dies „in Zukunft nie ohne eine absolute Überprüfung der Echtheit“ tun.

Betrachtet man das, was er als juristische Vorlage voller „falscher Gerichtsentscheidungen, mit falschen Zitaten und falschen internen Aussagen“ bezeichnete Richter Castel bezeichnete die Situation als beispiellos und ordnete eine Anhörung für Anfang nächsten Monats an mögliche Strafen.

ChatGPT und andere Chatbots sind zwar beeindruckend in der Art und Weise, wie sie fließenden Text in hoher Qualität produzieren, aber sie mögen es sind auch dafür bekannt, Dinge zu erfinden und sie so darzustellen, als wären sie real – etwas, das Schwartz gelernt hat kosten. Das Phänomen ist als „Halluzinieren“ bekannt und stellt eine der größten Herausforderungen für die menschlichen Entwickler hinter den Chatbots dar, wenn sie versuchen, dieses sehr problematische Phänomen auszubügeln.

In einem weiteren aktuellen Beispiel einer Halluzination eines generativen KI-Tools, an Der australische Bürgermeister beschuldigte ChatGPT Lügen über ihn zu verbreiten, einschließlich der Aussage, dass er vor mehr als einem Jahrzehnt wegen Bestechung inhaftiert wurde, als er für eine Bank arbeitete.

Der Bürgermeister, Brian Hood, war in dem Fall tatsächlich ein Whistleblower und wurde nie eines Verbrechens angeklagt. Daher war er ziemlich verärgert, als die Leute begannen, ihn über die Umschreibung der Geschichte durch den Chatbot zu informieren.

Empfehlungen der Redaktion

  • Aus diesem Grund denken die Leute, dass GPT-4 mit der Zeit dümmer werden könnte
  • ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
  • Was ist eine DAN-Eingabeaufforderung für ChatGPT?
  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
  • Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.