1.006 erfundene KI-Zitate vor Gericht, die kein Richter bemerkte

1.006 erfundene KI-Zitate vor Gericht, die kein Richter bemerkte

·4 Min. LesezeitPraktisches Recht für Leben und Arbeit

1.006 Gerichtsverfahren mit erfundenen Quellen: die ungelöste KI-Krise der Justiz

Ein Anwalt in New York reichte einen Schriftsatz ein, gespickt mit Fallzitaten, die vollkommen legitim aussahen. Sechs dieser Fälle haben nie existiert. Das Gericht verhängte eine Geldstrafe von 5.000 Dollar, und der Fall wurde zur Warnung auf jeder Legal-Tech-Konferenz seit 2023. Was die meisten Nacherzählungen verschweigen: Dieser Anwalt war kein Einzelfall. Eine laufend aktualisierte Datenbank erfasst mittlerweile über 1.006 Gerichtsschriftsätze weltweit, die von KI erfundene Zitate enthalten. Die Zahl wächst wöchentlich.

Die unbequeme Frage lautet nicht, ob Künstliche Intelligenz in Gerichtssäle gehört. Sie ist längst dort. Die Frage lautet: Was geschieht, wenn eine Technologie, die Zugang zum Recht demokratisieren soll, im Verborgenen das Gegenteil bewirkt?

Effizienzgewinne, die kein Gericht ignorieren kann

In Argentinien half der KI-Assistent Prometea den Staatsanwälten von Buenos Aires, von 130 auf knapp 490 Fälle pro Monat zu springen: ein Produktivitätssprung, der auf herkömmlichem Weg eine Verdreifachung des Personals erfordern würde. Brasiliens VICTOR-System am Obersten Gerichtshof reduzierte die Bewertungszeit pro Berufung von 44 Minuten auf Sekunden. Chinas Shenzhen Intermediate People’s Court integrierte im Juni 2024 als erstes Gericht systematisch ein großes Sprachmodell in die juristische Argumentation, trainiert mit zwei Billionen Zeichen juristischer Texte.

Gerichte in mindestens zwölf Ländern nutzen inzwischen KI in irgendeiner Form der Entscheidungsfindung. Das Effizienzargument ist entschieden. Doch Effizienz ist eine gefährliche Kennzahl, wenn Freiheitsrechte auf dem Spiel stehen.

Voreingenommenheit, die durch Geschwindigkeit nicht verschwindet

Als Forschende bei PMC die algorithmische Voreingenommenheit in der Rechtsprechung untersuchten, fanden sie etwas, das jeden beunruhigen sollte, der jemals vor einem Gericht stand: Die historischen Daten, aus denen diese Systeme lernen, enthalten bereits Jahrzehnte dokumentierter rassistischer, sozioökonomischer und geografischer Verzerrungen. KI auf voreingenommene Urteile zu trainieren, beseitigt Vorurteile nicht. Es automatisiert sie, in großem Maßstab, und verleiht ihnen die Autorität algorithmischer Objektivität.

Die Niederlande machten diese Erfahrung mit dem SyRI-System, das zur Erkennung von Sozialbetrug konzipiert war. Ein niederländisches Gericht erklärte es für unvereinbar mit der Europäischen Menschenrechtskonvention. Das System zielte überproportional auf einkommensschwache Viertel mit hohem Migrantenanteil. Die Technologie funktionierte genau wie vorgesehen; das Problem lag im Design.

Kolumbiens Erfahrung zeigt eine differenziertere Seite. Als Richter Juan Manuel Padilla öffentlich ChatGPT nutzte, um ein Urteil in einem Gesundheitsfall zu entwerfen, ergab eine Springer-Nature-Studie, dass die KI-gestützte Entscheidung inhaltlich vertretbar war. Kolumbiens Verfassungsgericht ordnete dennoch in Urteil T-323/24 Transparenzpflichten an: Selbst vertretbare Ergebnisse rechtfertigen keine intransparenten Prozesse.

Das regulatorische Vakuum, das der EU AI Act nur teilweise füllt

Die UNESCO veröffentlichte 2025 ihre ersten umfassenden Leitlinien für KI in Gerichten und Tribunalen, mit Beiträgen aus 41 Ländern. Das Dokument bestätigte, was Praktikerinnen und Praktiker bereits wussten: Die meisten Rechtsordnungen haben keine verbindlichen Regeln für den Einsatz von KI-Werkzeugen durch Richterinnen und Richter.

Frankreich steht mit der schärfsten Regulierung allein. Seit 2019 stellt Artikel 33 des Justizreformgesetzes die Nutzung von KI zur Analyse oder Vorhersage richterlicher Entscheidungen unter Strafe: bis zu fünf Jahre Gefängnis. Deutschland und der EU AI Act wählen einen anderen Weg: Justiz-KI wird als „Hochrisiko“ eingestuft, was Konformitätsbewertungen erfordert, ohne sie vollständig zu verbieten. Die meisten anderen Staaten haben überhaupt keinen Rechtsrahmen.

Was das für jeden bedeutet, der vor einem Gericht stehen könnte

Die Kluft zwischen den Fähigkeiten der KI und ihrer Regulierung in der Justiz schließt sich nicht. Sie wird größer. Jeden Monat gehen neue Systeme in neuen Rechtsordnungen in Betrieb, während Regulierungsbehörden Positionspapiere entwerfen.

Wer bisher davon ausging, dass ein Gerichtsurteil die sorgfältige Abwägung eines menschlichen Richters widerspiegelt, muss diese Annahme heute hinterfragen. Cambridge-Forschende warnen, dass unkritischer Einsatz generativer KI genau jene tiefe juristische Argumentation untergräbt, die auf sorgfältiger Lektüre und analogem Denken beruht: den Fähigkeiten, die ein Urteil von einer Berechnung unterscheiden.

Der 1.007. erfundene Schriftsatz wird gerade irgendwo verfasst. Die Frage ist, ob die Richterin, die ihn prüft, den Unterschied erkennen wird. Und ob irgendjemand sie verpflichtet, nachzuprüfen.

Quellen und Referenzen

  1. AI Hallucination Cases Database
  2. OECD
  3. PMC
  4. Cambridge
  5. Artificial Lawyer

Erfahren Sie mehr über unsere redaktionellen Standards

Das könnte Sie auch interessieren: