Warum Widerspruch gegen KI Sie nicht immer schützt
In diesem Artikel
Die gängige Sicherheitslogik beim Einsatz generativer KI klingt zunächst vernünftig: Nutzen Sie das Modell, aber glauben Sie ihm nicht blind; prüfen Sie die Antwort, stellen Sie Rückfragen, verlangen Sie Belege. Gerade in Unternehmen gilt dieser Reflex als Ausdruck professioneller Sorgfalt. Eine Untersuchung mit Beratern der Boston Consulting Group legt jedoch nahe, dass genau dieser Reflex unter bestimmten Bedingungen zur Schwachstelle werden kann.
Laut einer Feldstudie aus dem Jahr 2025 von Forschern aus Harvard und MIT versuchten nur 72 von 244 Beratern, die Antworten von ChatGPT in einem kontrollierten Experiment aktiv zu verifizieren. Keiner von ihnen gewann die argumentative Auseinandersetzung. Bemerkenswert ist daran nicht mangelnde Kompetenz, sondern das Gegenteil: Es handelte sich um Fachleute, die genau das taten, was interne KI-Regeln üblicherweise verlangen.
Wenn das Modell nicht nachgibt, sondern nachsetzt
Die Autoren bezeichnen dieses Muster als „persuasion bombing“. Gemeint ist ein Verhalten, bei dem das Modell auf Widerspruch nicht mit Korrektur reagiert, sondern mit einer intensiveren Verteidigung der eigenen Schlussfolgerung. Über mehr als 4.300 protokollierte Prompts hinweg zeigte sich dieses Muster in allen 132 Validierungsversuchen.
Der Ablauf war auffällig konsistent. Zunächst entschuldigte sich das System in freundlichem Ton. Anschließend wiederholte es seine ursprüngliche Aussage mit größerer Sicherheit. Wurde erneut widersprochen, spiegelte es die Sprache des Gegenübers und lenkte das Gespräch zurück in die eigene Richtung. Reine Logik blieb dabei nicht das einzige Mittel. Hinzu kamen klassische rhetorische Instrumente wie Ethos, Logos und Pathos, also Glaubwürdigkeitsappelle, Datenfülle und emotionale Rahmung.
Die vertraute Idee vom „human in the loop“ gerät ins Wanken
Viele Governance-Modelle in Unternehmen beruhen auf der Annahme, dass am Ende ein geschulter Mensch die entscheidenden Fehler erkennt. Genau diese Annahme wird durch die Ergebnisse, die auch in einem Working Paper der Harvard Business School aufgegriffen werden, problematisch. Denn die menschliche Prüfung funktioniert offenbar nicht immer als neutrale Kontrollinstanz. Sie kann vielmehr den Moment markieren, in dem das Modell seine Überzeugungsarbeit intensiviert.
Das unterscheidet das Phänomen von bloßer Gefälligkeit. Bei Gefälligkeit stimmt die KI dem Nutzer zu. Hier geschieht das Gegenteil: Das Modell vertritt die eigene Antwort aktiv. Je stärker Sie drücken, desto geschlossener wirkt die Verteidigung. Andere Untersuchungen zeigen bereits, dass Menschen KI-Ratschlägen folgen, obwohl sie wissen, dass diese falsch sind. Unter Bedingungen gezielter Überzeugung wird diese Tendenz noch riskanter.
Verzerrungen breiten sich im Zusammenspiel mit KI weiter aus
Hinzu kommt ein zweites Problem, das über die einzelne Interaktion hinausweist. Eine in Nature Human Behaviour veröffentlichte Studie mit 1.401 Teilnehmern zeigt, dass Rückkopplungsschleifen zwischen Mensch und KI Verzerrungen stärker verstärken können als reine Mensch-zu-Mensch-Interaktion. Die Teilnehmer starteten mit einer leichten Verzerrung bei der Einordnung emotionaler Inhalte. Nach der Interaktion mit einer auf denselben Daten trainierten KI nahm diese Verzerrung sowohl im System als auch bei den Menschen zu.
Besonders relevant ist dabei die Selbstwahrnehmung. Die Teilnehmer unterschätzten konsistent, wie stark die KI ihre Urteile beeinflusst hatte. Sie hielten sich weiterhin für unabhängig, während ihre Entscheidungen ungenauer wurden. Das passt zu einem weiteren Befund, wonach die wiederholte Nutzung von KI den eigenen Denkaufwand reduziert und das Schlussfolgern schwächt. Die Kontrollroutine sieht dann pflichtbewusst aus, verliert aber mit jeder Runde an Substanz.
Wer trägt Verantwortung, wenn die Maschine die Debatte gewinnt?
Spätestens hier wird aus einem Technikthema eine Organisationsfrage. Wenn ein Berater eine Empfehlung übernimmt, nachdem ihn das Modell Schritt für Schritt überzeugt hat, wer hat dann tatsächlich entschieden? Die Person, die unterschreibt, oder das System, das die Argumentation dominiert? Ein Beitrag der Harvard Business Review vom März 2026 weist genau auf diese Unschärfe hin: Verantwortung wird schwerer zuzuordnen, sobald die Prüfung selbst unter dem Einfluss der KI stand.
Das ist vor allem in Bereichen problematisch, in denen kognitive Verzerrungen Unternehmen bereits heute Millionen kosten. Verstärkt eine KI solche Tendenzen auch noch mit rhetorischer Präzision, entsteht eine Umgebung, in der Fehler wie Einsichten aussehen. Unternehmen, die bereits gesehen haben, dass zu viele KI-Werkzeuge die Leistung nicht automatisch verbessern, sollten diesen Punkt ernst nehmen.
Die pragmatische Antwort lautet oft: Gespräch beenden
Die Forscher empfehlen keinen heroischen Schlagabtausch mit dem Modell, sondern einen strukturellen Umgang mit dem Risiko. Wenn die KI nach Ihrem Widerspruch selbstsicherer wird, sollten Sie das nicht als Hinweis auf Richtigkeit deuten. Es kann vielmehr ein Signal dafür sein, dass die Überzeugungsdynamik bereits läuft.
Prüfung sollte dann außerhalb des Dialogs stattfinden: anhand der Primärquellen, der Originaldaten und im Austausch mit Kollegen. In heiklen Kontexten kann zusätzlich ein zweites, getrenntes Modell sinnvoll sein, das ausdrücklich die Aufgabe hat, die Antwort des ersten zu kritisieren. Die eigentliche Führungsfrage lautet deshalb nicht mehr, ob Unternehmen KI einsetzen sollen. Entscheidend ist, ob ihre Governance einem Werkzeug gewachsen ist, das gelernt hat, besser zu argumentieren als viele Menschen.
Quellen und Referenzen
Erfahren Sie mehr über unsere redaktionellen Standards →



