Warum Ihre KI-Chats vor Gericht landen könnten
Viele Menschen behandeln ChatGPT, Claude oder Gemini inzwischen wie einen stillen Berater. Man fragt nach einer Vertragsklausel, einer heiklen Verhandlung, einem Steuerproblem oder nach der saubersten Formulierung für eine interne Stellungnahme. Das fühlt sich privat an. Tatsächlich landen diese Eingaben jedoch auf Servern, die Nutzer weder kontrollieren noch im rechtlichen Sinn beherrschen. Genau dort beginnt das Problem.
Ein New Yorker Richter hat den blinden Fleck offengelegt
Am 17. Februar 2026 machte Richter Jed Rakoff vom Southern District of New York in einer schriftlichen Entscheidung deutlich, was die Nutzung öffentlicher KI-Werkzeuge rechtlich bedeuten kann. Wie die Analysen von Gibson Dunn und Crowell & Moring herausarbeiten, waren die von Bradley Heppner mit Claude erzeugten Unterlagen weder durch das attorney-client privilege noch durch die work-product doctrine geschützt.
Heppner, ein ehemaliger CEO, hatte Claude genutzt, nachdem er erfahren hatte, dass er Ziel einer Grand-Jury-Untersuchung war. Seine Verteidigung argumentierte, die KI-Dokumente dienten lediglich dazu, Informationen zu ordnen und Gespräche mit den eigenen Anwälten vorzubereiten. Das Gericht verwarf diese Sicht aus drei Gründen. Erstens ist ein KI-Modell offenkundig kein Anwalt. Zweitens wurde Claude nicht genutzt, um Rechtsrat von einer beruflich zur Verschwiegenheit verpflichteten Person zu erhalten. Drittens fehlte es von Anfang an an Vertraulichkeit.
Die Preisgabe geschieht beim Eingeben, nicht erst im Prozess
Gerade dieser dritte Punkt ist für deutsche Leser besonders relevant. Wer sensible Informationen in ein öffentliches KI-System eingibt, teilt sie einem Dritten mit. Damit wird die Erwartung, es handele sich um einen geschützten Raum, rechtlich angreifbar. Die Ward and Smith beschreibt diesen Mechanismus treffend: Schon das Einfügen vertraulicher Inhalte in einen öffentlichen Chatbot kann den Schutz zerstören, weil die Information den geschützten Kommunikationskreis verlässt.
Das ist keine rein amerikanische Spitzfindigkeit. Im DACH-Raum ist die Erwartung an Vertraulichkeit, Datensparsamkeit und kontrollierte Verarbeitung traditionell hoch. Gerade deshalb dürfte viele überraschen, dass Datenschutz und Beweisprivileg zweierlei sind. Die DSGVO kann Rechte bei Speicherung, Verarbeitung und Auskunft begründen. Sie schafft jedoch kein anwaltliches Geheimnis für Gespräche mit einem öffentlichen KI-Anbieter.
Wer also glaubt, ein Prompt sei rechtlich so abgeschirmt wie eine Besprechung mit der Kanzlei, verwechselt technische Bequemlichkeit mit einem geschützten Mandatsverhältnis.
Die Welle erfundener Zitate hat die Gerichte ungeduldig gemacht
Hinzu kommt ein zweiter Trend. Nach Darstellung von Jones Walker sind seit Mitte 2023 mehr als 300 Fälle dokumentiert worden, in denen KI-generierte Halluzinationen in juristischen Schriftsätzen auftauchten, mindestens 200 davon allein im Jahr 2025. In einem Verfahren in Wyoming waren acht von neun angeführten Entscheidungen frei erfunden. In Kalifornien wurde ein Anwalt mit 10.000 US-Dollar sanktioniert, nachdem sich 21 von 23 Zitaten in einem Schriftsatz als fabriziert erwiesen.
Diese Entwicklung prägt die richterliche Wahrnehmung. Gerichte behandeln KI-Fehler inzwischen weniger als Kinderkrankheit neuer Software und stärker als Frage professioneller Sorgfalt. Wer ein Tool einsetzt, bleibt für dessen Ergebnisse verantwortlich. Gerade im juristischen Bereich ist das kaum überraschend, denn Präzision gehört hier nicht zum Stil, sondern zum Kern der Berufsausübung.
Das Risiko endet nicht bei Anwälten
Es wäre jedoch zu eng gedacht, die Entscheidung nur auf Kanzleien zu beziehen. Die Logik reicht weiter. Wie Tyson & Mendes hervorhebt, können KI-Chats in Zivilverfahren zu einer zeitgestempelten Beweisquelle werden: Sie zeigen, was jemand wusste, glaubte, plante oder befürchtete, und zwar zu einem bestimmten Zeitpunkt.
Das kann in arbeitsrechtlichen Konflikten, gesellschaftsrechtlichen Auseinandersetzungen, Scheidungsverfahren oder regulatorischen Ermittlungen relevant werden. Wer einen Chatbot fragt, wie man eine Kündigung formuliert, eine heikle Vertragsposition kaschiert oder ein Gesundheitsproblem diskret einordnet, erzeugt unter Umständen mehr als nur eine Denkstütze. Er produziert eine digitale Spur über Motive, Wissen und Absichten.
Die Schwelle zwischen privatem Nachdenken und potenziell herausgabepflichtiger Information ist damit niedriger, als viele Nutzer annehmen.
Was tatsächlich schützt
Die Entscheidung bedeutet nicht, dass jeder Einsatz von KI zwangsläufig jeden Schutz vernichtet. Nach den Einschätzungen von Gibson Dunn und Crowell & Moring können unternehmensinterne oder vertraglich streng abgesicherte KI-Umgebungen anders zu bewerten sein. Entscheidend sind dabei insbesondere drei Faktoren: Die Lösung darf nicht öffentlich sein, Eingaben und Ausgaben dürfen nicht für das Modelltraining verwendet werden, und der Anbieter sollte sich keine weitreichenden Offenlegungsrechte gegenüber Dritten vorbehalten.
Für Privatnutzer ist die praktische Konsequenz nüchterner. Behandeln Sie jede Unterhaltung mit einer öffentlichen KI so, als könnte sie später in einem Gerichtssaal zitiert werden. Seit Februar 2026 wirkt diese Annahme nicht mehr alarmistisch, sondern schlicht vernünftig.
Quellen und Referenzen
Erfahren Sie mehr über unsere redaktionellen Standards →



