Der ungeschickte Gebrauch von ChatGPT hat einer New Yorker Anwaltskanzlei eine Geldstrafe von 5.000 US-Dollar auferlegt.
Nachdem Anwalt Steven Schwartz so viel über den beeindruckenden KI-gestützten Chatbot von OpenAI gehört hatte, entschied er sich für den Einsatz Es dient der Recherche und fügt ChatGPT-generierte Fallzitate zu einem juristischen Schriftsatz hinzu, der zuvor einem Richter übergeben wurde Jahr. Doch bald stellte sich heraus, dass die Fälle vollständig vom Chatbot erfunden worden waren.
Empfohlene Videos
US-Bezirksrichter P. Kevin Castel verurteilte am Donnerstag die Anwälte Steven Schwartz und Peter LoDuca, die den Fall von seinem Kollegen übernommen hatten, und ihre Anwaltskanzlei Levidow, Levidow & Oberman zur Zahlung einer Geldstrafe von 5.000 US-Dollar.
Verwandt
- Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
- Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
- Die besten KI-Chatbots zum Ausprobieren: ChatGPT, Bard und mehr
Der Richter sagte Die Anwälte hätten vor Gericht „bewusste Vermeidungshandlungen und falsche und irreführende Aussagen gemacht“ und fügten hinzu, dass sie „ihr Recht aufgegeben“ hätten Verantwortlichkeiten“, indem sie den von der KI verfassten Schriftsatz einreichen, bevor sie „den falschen Meinungen nach richterlichen Anordnungen zur Last fallen“. Frage."
Castel fuhr fort: „Viel Schaden entsteht durch die Abgabe falscher Meinungen.“ Die Gegenpartei verschwendet Zeit und Geld, um die Täuschung aufzudecken. Die Zeit des Gerichts wird für andere wichtige Aufgaben beansprucht.“
Der Richter fügte hinzu, dass das Vorgehen der Anwälte „Zynismus gegenüber der Anwaltschaft und dem amerikanischen Justizsystem fördert“.
Die Anwaltskanzlei in Manhattan erklärte, sie stimme der Meinung des Gerichts „respektvoll“ nicht zu und bezeichnete es als „Fehler in gutem Glauben“.
Bei einer entsprechenden Gerichtsverhandlung Anfang dieses Monats sagte Schwartz Er wollte sich „aufrichtig“ für den Vorfall entschuldigen und erklärte, er glaube, er nutze eine Suchmaschine und habe keine Ahnung, dass das KI-Tool Unwahrheiten produzieren könne. Er sagte, er bereue seine Taten „zutiefst“ und fügte hinzu: „Ich habe sowohl beruflich als auch persönlich gelitten, weil dieses Thema große Aufmerksamkeit erregt hat.“ Ich bin sowohl verlegen, gedemütigt als auch äußerst reuig.“
Der Vorfall stand im Zusammenhang mit einem Fall der Anwaltskanzlei, in dem es um einen Passagier ging, der die kolumbianische Fluggesellschaft Avianca verklagte, nachdem er behauptet hatte, er habe auf einem Flug nach New York City eine Verletzung erlitten.
Avianca forderte den Richter auf, den Fall abzuweisen, und so verfasste die Rechtsabteilung des Passagiers einen Schriftsatz, in dem sie sechs ähnliche Fälle anführte, um den Richter davon zu überzeugen, den Fall ihres Mandanten fortzusetzen. Schwartz fand diese Fälle, indem er ChatGPT befragte, versäumte es jedoch, die Echtheit der Ergebnisse zu überprüfen. Die Rechtsabteilung von Avianca schlug Alarm, als sie erklärte, sie könne die in dem Schriftsatz enthaltenen Fälle nicht finden.
In einem separaten Beschluss vom Donnerstag gab der Richter Aviancas Antrag auf Abweisung der Klage statt und beendete damit die ganze traurige Episode.
ChatGPT und ähnliche Chatbots haben in den letzten Monaten viel Aufmerksamkeit auf sich gezogen, da sie in der Lage sind, sich auf menschenähnliche Weise zu unterhalten und eine wachsende Bandbreite textbasierter Aufgaben gekonnt auszuführen. Aber sie sind auch dafür bekannt, Dinge zu erfinden und so darzustellen, als ob sie real wären. Es ist so weit verbreitet, dass es sogar einen Begriff dafür gibt: „halluzinierend“.
Diejenigen, die an generativen KI-Tools arbeiten, erforschen Möglichkeiten, Halluzinationen zu reduzieren, aber bis dahin wird Benutzern empfohlen, alle „Fakten“, die die Chatbots ausspucken, sorgfältig zu prüfen.
Empfehlungen der Redaktion
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
- Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
- Laut einer Umfrage halten 81 % ChatGPT für ein Sicherheitsrisiko
- Der ChatGPT-Konkurrent von Apple schreibt möglicherweise automatisch Code für Sie
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.