KI halluziniert Gerichtsurteile — wie Kanzleien die Haftung vermeiden

Über 1.174 dokumentierte Fälle weltweit. Sanktionen bis 30.000 Dollar. Und die Gerichte sind sich einig: Die KI darf sich irren — der Anwalt darf es nicht. Was das für den KI-Einsatz in Kanzleien strukturell bedeutet.

Im Juni 2023 reichten zwei Anwälte einer New Yorker Kanzlei einen Brief ein, der sechs Gerichtsurteile zitierte. Alle sechs existierten nicht. Sie waren von ChatGPT erfunden worden — vollständig, mit plausiblen Aktenzeichen, überzeugenden Zusammenfassungen und dem Stil echter Urteilstexte. Richter Castel des Southern District of New York sanktionierte beide Anwälte mit je 5.000 Dollar und verpflichtete sie, jeden Richter persönlich zu informieren, dessen Name in den Phantomurteilen auftauchte.

Damals behandelten die meisten diesen Fall als Ausreißer. Als naives Experiment einer Kanzlei, die zu wenig Sorgfalt aufgewendet hatte. Als Lehrstunde, die man sich merken und dann vergessen konnte.

Das war ein Irrtum.

Seitdem hat der Rechtsanwalt und HEC-Forscher Damien Charlotin jede dokumentierte KI-Halluzination in Gerichtsverfahren weltweit katalogisiert. Sein Datenbankstand von März 2026: 1.174 Fälle. 518 davon in amerikanischen Gerichten allein seit Anfang 2025. Die Kurve zeigt nicht in Richtung Normalisierung — sie zeigt steil nach oben.

01 

Aktuelle Entwicklung

Sanktionen nehmen zu

Was sich in Q1/2026 abspielt, ist kein Hintergrundrauschen mehr. Es sind konkrete Urteile, konkrete Strafen, konkrete Konsequenzen für namentlich bekannte Anwälte und Kanzleien.

Aktuelle Sanktionen — Q1 2026

Sixth Circuit, März 2026: 30.000 Dollar Gesamtstrafe gegen zwei Anwälte. Über zwei Dutzend gefälschte Zitate. Das Gericht leitete den Fall an den zuständigen Chefrichter zur Disziplinierung weiter.

Fifth Circuit, Februar 2026: 2.500 Dollar Strafe für texanische Anwältin Heather Hersh. Erschwerend: fehlende Offenlegung gegenüber dem Gericht.

New Orleans, Februar 2026: 1.000 Dollar Strafe für John Walker. Sein Brief an das LSU Health Foundation enthielt mindestens 11 fabrizierte oder falsch charakterisierte Zitate. Er hatte sowohl ChatGPT als auch Westlaw Precision AI verwendet.

Oregon, März 2026: 10.000 Dollar Strafe — 500 Dollar pro gefälschtem Zitat (15 Stück) plus 1.000 Dollar für den Mehraufwand der Gegenseite.

Morgan & Morgan, 2025: Anwälte der größten Personal-Injury-Kanzlei der USA sanktioniert. Einer verlor seine vorläufige Zulassung.

Aber nicht nur die Häufigkeit nimmt zu. Die Qualität der Reaktion der Gerichte verändert sich. Frühe Urteile enthielten oft noch mahnende Töne — eine Art Belehrung, die signalisierte: Wir wissen, dass das neu ist. Das ist vorbei. Die Sprache, die amerikanische und europäische Gerichte heute verwenden, ist die Sprache der professionsrechtlichen Verantwortung ohne Wenn und Aber.

An attorney who signs a brief supported in full or in part by nonexistent law submits a violation. The advent of generative AI did not change that principle.

— Oregon Court of Appeals, März 2026

Besonders bemerkenswert ist eine Formulierung aus einem Oregon-Urteil, in dem der Begriff „Halluzination“ selbst abgelehnt wurde.

Das Gericht schrieb, dass KI nicht wahrnimmt — sie generiert. Sie erfindet nicht aus Verwirrung, sondern planmäßig. Das ist für die Haftungsfrage ein bedeutender Unterschied:

Wenn ein Gericht KI-Halluzinationen als designkonformes Verhalten behandelt — nicht als Fehlfunktion — dann schrumpft der Spielraum erheblich, der Kanzlei zu sagen: Das System hat versagt. Nicht wir.

 

02

Studien bestätigen

Halluzination ist planmäßig.

Die juristische KI-Branche vermarktet Halluzinationsraten von unter einem Prozent. Diese Zahl stammt aus kontrollierten Testumgebungen, kurzen Dokumenten, klaren Anfragen. Sie beschreibt nicht das, was in der Praxis passiert.

Eine Stanford-Studie, die systematisch allgemeine LLMs auf juristische Aufgaben getestet hat, kommt zu anderen Zahlen:

58 bis 88 Prozent Halluzinationsrate bei komplexen Aufgaben — etwa dem Synthese mehrerer Quellen oder der Zitatsuche aus Urteilen.

Und selbst spezialisierte Legal-KI-Tools, die mit juristischen Inhalten trainiert wurden, schnitten in dieser Untersuchung nicht gut ab: Lexis+ AI zeigte eine Fehlerrate von 17 Prozent, Westlaw AI von 34 Prozent.

Vendor-Behauptung

Beobachtete Realität (komplexe juristische Aufgaben)

Unter 1 % Halluzinationsrate

58–88 % bei komplexen Mehrquellen-Aufgaben (Stanford)

Legal-KI zuverlässig für Recherche

Lexis+ AI: 17 % Fehlerrate; Westlaw AI: 34 % (Stanford)

Urteiltszitate

Phantom-Zitate entstehen auch bei RAG-Systemen

Anwender trägt Restrisiko

Anwälte haften vollständig — unabhängig vom Tool

Diese Diskrepanz hat eine einfache Erklärung: Die Benchmarks der Anbieter messen Präzision auf sauberen Kurzdokumenten unter optimalen Bedingungen.

Juristische Praxis bedeutet unstrukturierte Fragen, mehrdeutige Sachverhalte, Quellen über mehrere Jurisdiktionen hinweg, Zeitdruck. In diesem Umfeld steigen Halluzinationsraten stark an.

Das ist kein Argument gegen KI in der Rechtsarbeit.

Es ist ein Argument gegen den unkritischen Einsatz von KI in Bereichen, in denen die Konsequenzen eines Fehlers rechtliche und berufliche Folgen haben.

03

Veränderungen

Das Problem wächst - das Risiko bleibt.

Die Zahl der dokumentierten Fälle steigt, obwohl das Thema seit 2023 breit diskutiert wird. Awareness allein reicht offensichtlich nicht.  

1

Ergebnis klingt überzeugend

Anwälte, die unter Zeitdruck stehen — und wer steht nicht unter Zeitdruck? — nutzen KI als Ersthelfer. Sie vertrauen dem Ergebnis, weil es so professionell klingt. Die KI schreibt im Stil juristischer Texte, mit Aktenzeichen, mit Seitenzahlen, mit dem Ton einer Autorität. Dieser Stil ist das Problem. Er vermittelt Sicherheit, die nicht vorhanden ist

2

Fehlendes Systemdesign

In den meisten Kanzleien ist die KI-Nutzung nicht in einen Prüfprozess eingebettet. Sie passiert individuell, am Rand des regulären Workflows. Die Prüfung der KI-Outputs ist ein Extra-Schritt — und Extra-Schritte werden unter Druck weggelassen. Das ist keine individuelle Schwäche. Das ist Systemdesign.

3

Viele offene Rechtsfragen

Über 35 US-amerikanische Anwaltskammern haben Richtlinien zum KI-Einsatz herausgegeben. Sie variieren erheblich: Manche verlangen Offenlegung bei jeder Einreichung, andere nur auf Anfrage, einige haben erklärt, dass die Unterschrift unter einem Schriftsatz bereits eine Zertifizierung der Richtigkeit darstellt. 

Aber auch in Deutschland gibt es allenfalls Leitlinien (z.B. des DAV), um berufsrechtliche Risiken zu minimieren. Hinzu kommen Fragen des Urheberrechts.

04

Was das für KI in der Kanzlei bedeutet

Die strukturelle Konsequenz — Verantwortung übernehmen

Die entscheidende Formulierung kommt aus einem Analyse-Bericht von developmentcorporate.com, der sich mit M&A-Risiken durch Legal-KI befasst:

Professional liability cannot be outsourced to the AI vendor.

Auf Deutsch: Berufshaftung ist nicht delegierbar — weder an Software, noch an Anbieter, noch an technische Infrastruktur.

Das klingt offensichtlich. In der Praxis ist es es nicht. Denn es bedeutet, dass jeder KI-Output, der in eine rechtlich relevante Handlung einfließt, menschlich verifiziert und menschlich verantwortet sein muss. Das ist keine Frage der Sorgfalt. Das ist die rechtliche Grundlage, auf der Gerichte entscheiden.

The machine may hallucinate — but the advocate must not.

— Lexology, Oktober 2025

Daraus folgt keine Ablehnung von KI. Daraus folgt eine klare Anforderung an die Architektur, in der KI eingesetzt wird. Eine KI, die autonom Schriftsätze erstellt und diese direkt in den Versandprozess einführt, ist eine andere Sache als eine KI, die einen Entwurf erstellt — der dann durch einen benannten Anwalt geprüft, freigegeben und dokumentiert wird, bevor er die Kanzlei verlässt.

Der Unterschied zwischen diesen beiden Szenarien ist nicht die Qualität der KI. Er ist die Prozessarchitektur.

05

Orchestrierte KI

KI als integrierte & auditierbare Technologie

Wir haben bei DEPLAW von Anfang an eine Position gehabt, die uns damals manchmal etwas altmodisch wirken ließ:

KI ist ein Task im Workflow — kein eigenständiger Akteur.

Sie klassifiziert, extrahiert, entwirft. Aber sie gibt nichts aus der Hand, bevor ein Mensch entschieden hat, dass das Ergebnis stimmt.

Diese Position sieht inzwischen anders aus. Nicht altmodisch — sondern strukturell richtig.

Die revisionssichere Prozesshistorie von DEPLAW dokumentiert für jeden KI-generierten Entwurf: welches Modell verwendet wurde, welche Eingangsdaten genutzt wurden, wann der Entwurf erstellt wurde, wer ihn geprüft hat und wann die Freigabe erteilt wurde. Diese Aufzeichnung ist nicht rückwirkend änderbar. Sie ist der Nachweis, den ein Gericht verlangen könnte — und den ein Anwalt im Haftungsfall braucht.

Das ist keine Spielerei mit Features. Das ist die Grundlage, auf der KI in der juristischen Arbeit vertretbar eingesetzt werden kann.

Kanzleien, die KI-Tools einsetzen ohne diese Infrastruktur — ohne dokumentierten Prüfschritt, ohne Freigabeprozess, ohne Auditierbarkeit — setzen ihre Berufszulassung auf eine Karte, die sie nicht kontrolllieren. Das ist ein Risiko, das sich mit strukturellen Entscheidungen eliminieren lässt. Nicht mit mehr Vorsicht. Mit besserer Architektur.

 

Quellen & Nachweise

[1]  Charlotin, D. (2026): AI Hallucination Cases Database. HEC Paris. damiencharlotin.com/hallucinations

[2]  Stanford Law School / RegLab (2024): Profiling Legal Hallucinations in Large Language Models. Oxford Journal of Legal Analysis.

[3]  Development Corporate (2026, 25. März): AI Hallucinations in Legal Filings Are Now a Courtroom Crisis. developmentcorporate.com

[4]  Sixth Circuit Court of Appeals (März 2026): Sanktionsentscheidung — 30.000 Dollar gegen zwei Anwälte. jdjournal.com

[5]  Oregon Court of Appeals (März 2026): Doiban v. OLCC — 10.000 Dollar Strafe, 15 fabrizierte Zitate.

[6]  thelegalprompts.com (März 2026): AI Hallucinations in Legal Work — How to Avoid Getting Sanctioned.

[7]  Lexology (Oktober 2025): AI Hallucinations in Legal Practice: When Technology Gets the Law Wrong.

[8]  Jones Walker LLP (2026): Ten AI Predictions for 2026 — Stanford error rates for Lexis+ AI and Westlaw AI. joneswalker.com

Produkt-Highlights
BPMN Workflow Editor Legal Tech
DEPLAW Workflow Editor

Modellieren Sie Ihre Legal-Prozesse visuell – vollständig automatisierbar, ohne Code. 

Überblick

Kategorien
Newsletter

Mit der Anmeldung für den Newsletter nehmen Sie unsere Datenschutzerklärung zur Kenntnis Diese Einwilligung können Sie jederzeit widerrufen.