Panorama

KI nennt nicht vorhandene Fälle Anwalt vertraute zu sehr auf ChatGPT

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos | Feedback senden
Der Anwalt hatte Fehler nicht für möglich gehalten.

Der Anwalt hatte Fehler nicht für möglich gehalten.

(Foto: REUTERS)

Nach 30 Jahren im Beruf nutzt ein New Yorker Anwalt neueste Technik für seine Arbeit. Für die Begründung einer Anklageschrift befragt er das KI-Tool ChatGPT. Das liefert auch Antworten, allerdings sind die alles andere als gerichtsfest.

Ein New Yorker Anwalt muss sich selbst vor Gericht verantworten, nachdem seine Kanzlei das KI-Tool ChatGPT benutzt hat. Bei dem Fall ging es um die Anklage gegen eine Airline, bei der ein Passagier durch einen Servierwagen verletzt worden war. Die betroffene Kanzlei sollte den Kläger vertreten.

Um die Zulässigkeit der Klage wegen der Fahrlässigkeit eines Mitarbeiters zu begründen, wurden mehrere ältere Verfahren zitiert, in denen es um ähnliche Sachverhalte gegangen sein soll. Mindestens sechs der Präzedenzfälle, die der Anwalt als Recherchen eingereicht hatte, "scheinen gefälschte Gerichtsentscheidungen mit falschen Zitaten und falschen internen Zitaten zu sein", sagte Richter Kevin Castel vom Southern District of New York in einem Beschluss von Anfang Mai.

Zu den angeblichen Fällen zählen: Varghese gegen China South Airlines, Martinez gegen Delta Airlines, Shaboon gegen EgyptAir, Petersen gegen Iran Air, Miller gegen United Airlines und Estate of Durden gegen KLM Royal Dutch Airlines. Die Anwälte der Fluggesellschaft teilten dem Richter nach eigenen Recherchen mit, dass sie mehrere der im Schriftsatz genannten Fälle nicht finden könnten.

ChatGPT kennt keinen Zweifel

Auf Nachfrage stellte sich heraus, dass der betreuende Klage-Anwalt ChatGPT nutzte, um nach ähnlichen Fällen zu suchen. Der Jurist mit mehr als 30 Jahren Erfahrung teilte in einer eidesstattlichen Erklärung mit, dass er vor diesem Fall ChatGPT nie als juristische Recherchequelle genutzt habe. Daher sei er sich nicht der Möglichkeit bewusst gewesen, "dass der Inhalt falsch sein könnte". Er übernahm die Verantwortung dafür, die Quellen des Chatbots nicht bestätigt zu haben.

Mehr zum Thema

Der Akte beigefügte Screenshots sollen US-Medien zufolge die Kommunikation zwischen dem Anwalt und ChatGPT zeigen. "Ist Varghese ein echter Fall", heißt es in einer Nachricht und bezieht sich auf Varghese gegen China Southern Airlines Co Ltd, einen der Fälle, die kein anderer Anwalt finden konnte. ChatGPT antwortet mit "Ja, das ist es" und fordert "S" auf, zu fragen: "Was ist Ihre Quelle?" Nach einer "doppelten Überprüfung" antwortet ChatGPT erneut, dass der Fall real sei und in juristischen Referenzdatenbanken wie LexisNexis und Westlaw zu finden sei. Dem Anwalt droht nun eine Strafe "wegen der Verwendung einer falschen und betrügerischen Beglaubigung.

ChatGPT erstellt auf Anfrage Originaltexte, enthält jedoch Warnungen, dass es "ungenaue Informationen liefern" kann. Millionen von Menschen haben ChatGPT seit seiner Einführung im November 2022 genutzt. Als Datenbank nutzt es das Internet, wie es im Jahr 2021 war.

Quelle: ntv.de, sba

Social Networks
Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen