Je mehr Sie KI vertrauen, desto weniger prüfen Sie
In etwa vier von zehn Fällen folgen Menschen einer KI-Empfehlung, obwohl der Fehler erkennbar wäre. Darauf deutet ein 2026 in Scientific Reports veröffentlichter Befund hin. In der Studie beurteilten 295 Teilnehmende, ob Gesichter echt oder KI-generiert waren. Die Hälfte erhielt Hinweise, die als KI-Empfehlungen gekennzeichnet waren, obwohl diese nur in der Hälfte der Fälle korrekt waren. Besonders aufschlussreich war jedoch nicht nur die Fehlübernahme selbst, sondern ein anderes Muster: Personen mit positiverer Einstellung gegenüber KI schnitten bei der Fehlererkennung schlechter ab.
Damit verschiebt sich die eigentliche Frage. Es geht nicht allein darum, dass ein System falsche Vorschläge machen kann. Entscheidend ist, was mit dem menschlichen Urteil geschieht, wenn neben der Aufgabe bereits eine scheinbar objektive Antwort liegt. Der Vorschlag wird dann nicht mehr als bloße Hilfestellung verarbeitet, sondern als kognitischer Anker.
Der Fehler beginnt nicht bei der Maschine
Dieses Muster ist unter dem Begriff Automationsbias bekannt. Gemeint ist die Tendenz, automatisierten Empfehlungen zu stark zu folgen, selbst wenn Gründe für Zweifel vorliegen. Das Phänomen ist keineswegs neu, doch seine Reichweite wächst rasant. Was früher eher mit Luftfahrt, industriellen Leitständen oder klinischen Entscheidungssystemen verbunden war, ist inzwischen in Alltagssoftware, Analysewerkzeugen und generativen Assistenten angekommen.
Ein Experiment von LMU Munich und University of Maryland aus dem Jahr 2025, an dem 2.784 Personen teilnahmen, illustriert das sehr deutlich. Die Teilnehmenden sollten Emissionsdaten aus Unternehmensberichten extrahieren und bekamen dabei KI-Vorschläge, die zum Teil falsch waren. Laut den Autoren war nicht Bildungseifer oder Belohnung der entscheidende Faktor, sondern vor allem die Haltung zur KI selbst. Skeptischere Personen entdeckten Fehler verlässlicher; wer Automatisierung positiver bewertete, zeigte eine gefährliche Überabhängigkeit von algorithmischen Vorschlägen.
Vertrauen verschiebt die Prüfung
Gerade dieser Punkt wird häufig unterschätzt. Viele Organisationen behandeln Übervertrauen in KI wie ein Problem der Disziplin. Man müsse Nutzer eben stärker motivieren oder besser schulen. Die vorliegenden Befunde deuten jedoch auf etwas Grundsätzlicheres hin. Vertrauen verändert, wie intensiv Menschen eine Empfehlung überhaupt noch prüfen.
In der Lancaster-Studie zeigte sich genau das. Wer KI-Hinweise erhielt und zugleich eine positivere Grundhaltung gegenüber KI mitbrachte, konnte echte und synthetische Gesichter schlechter auseinanderhalten. Wenn die Hinweise dagegen angeblich von Menschen stammten, wirkte allgemeines Vertrauen in andere Menschen nicht in derselben Weise auf die Leistung. Es scheint also, dass maschinische Empfehlungen einen besonderen Status genießen: Sie wirken neutral, noch bevor ihre Zuverlässigkeit überprüft wurde.
Selbst Expertise schützt nur begrenzt
Besonders relevant wird das in Hochrisikobereichen. Eine von BrainFacts.org aufgegriffene Untersuchung zur Befundung von Mammografien zeigt, wie stark fehlerhafte KI-Ausgaben Urteile verschieben können. Wenn die KI falsche Ergebnisse lieferte, sank die Treffgenauigkeit wenig oder mäßig erfahrener Radiologen von etwa 80% auf rund 22%. Selbst sehr erfahrene Radiologen fielen von knapp 80% auf 45%.
Das bedeutet nicht, dass Fachwissen wertlos wäre. Es bedeutet vielmehr, dass Expertise in Gegenwart einer selbstbewusst wirkenden Empfehlung neu kalibriert wird. Der Mensch sieht den Befund weiterhin, aber er sieht ihn nicht mehr unbelastet. Die maschinische Empfehlung setzt einen Rahmen, innerhalb dessen die weitere Interpretation stattfindet.
Routinen machen den Menschen nachlässiger
Hinzu kommt ein zweites Problem, das oft weniger sichtbar ist als der einzelne Fehlentscheid. Eine systematische Übersichtsarbeit im Journal of the American Medical Informatics Association beschreibt konsistent, dass Nutzer mit zunehmender Gewöhnung an automatisierte Systeme weniger überwachen und seltener eigenständig verifizieren. Vertrautheit kann also dazu führen, dass die Kontrollen, die Fehler überhaupt erst auffangen würden, schleichend zurückgehen.
Für Unternehmen ist genau das der langfristige Risikokern. Es geht nicht nur um einen falschen KI-Hinweis in einem einzelnen Moment. Es geht um den allmählichen Abbau der Fähigkeit, den nächsten Fehler überhaupt noch zu bemerken. Im Recruiting kann daraus ein unkritisches Screening entstehen, in der Finanzanalyse eine kaum mehr hinterfragte Signalübernahme, in der Medizin ein diagnostischer Tunnelblick.
Was gegen Automationsbias tatsächlich hilft
Die Forschung legt keine einfache Patentlösung nahe. Vielmehr spricht sie dafür, dass schlecht kalibriertes Vertrauen aktiv gebremst werden muss. Auffällig ist etwa, dass finanzielle Leistungsanreize im Münchner Experiment keinen konsistenten Nutzen zeigten. Es genügt also nicht, Menschen zu sagen, sie sollten genauer arbeiten. Ebenso wenig reicht es, formal einen „Menschen in der Schleife“ zu belassen, wenn der Prozess ihn faktisch zur Bestätigung der KI drängt.
Sinnvoller erscheint es, produktive Reibung einzubauen: bekannte Fehlerraten offenlegen, kritische Prüfungen aktiv einfordern, Vorschlag und Entscheidung klar trennen und Widerspruch gegen KI-Empfehlungen kulturell legitimieren. Das Ziel ist nicht, KI zu verteufeln. Das Ziel ist, ihre Autoritätswirkung nicht mit Wahrheit zu verwechseln.
Die ernsthafte Frage lautet daher nicht, ob KI Fehler macht. Natürlich macht sie das. Entscheidender ist, was mit Ihrem Urteil geschieht, wenn die Antwort bereits fertig formuliert vor Ihnen liegt. Je glatter und souveräner diese Antwort erscheint, desto größer ist die Versuchung, das eigene Prüfen zu verkürzen. Genau darin liegt der eigentliche Kern des Automationsbias.
- #Mensch in der Schleife
- #Automationsbias
- #Entscheidungen mit KI
- #kognitive Verzerrungen
- #Vertrauen in KI
Quellen und Referenzen
Erfahren Sie mehr über unsere redaktionellen Standards →


