Weniger Denkarbeit durch KI, aber schlechteres Urteil
Die attraktivste Verheißung künstlicher Intelligenz besteht nicht allein darin, Arbeit zu beschleunigen. Sie besteht darin, Denkarbeit spürbar leichter zu machen. Sie stellen eine Frage, erhalten eine gut formulierte Antwort und haben sofort das Gefühl, der schwierigste Teil sei bereits erledigt. Genau darin liegt jedoch das Problem. Was sich wie Effizienz anfühlt, kann zugleich jene geistige Anstrengung verringern, aus der überhaupt erst gutes Urteilsvermögen entsteht.
Eine peer-reviewte Studie in Computers in Human Behavior begleitete Studierende bei der Lösung wissenschaftlicher Aufgaben mit zwei unterschiedlichen Werkzeugen. Eine Gruppe arbeitete mit ChatGPT, die andere mit Google. Zeit, Fragen und Zielsetzung waren identisch. Die ChatGPT-Gruppe berichtete von rund 40 Prozent geringerer kognitiver Belastung. Die Aufgabe fühlte sich leichter, schneller und weniger anstrengend an. Gleichzeitig fiel die Qualität des Schlussfolgerns deutlich ab: Die Begründungen blieben flacher, die Argumentation schwächer, die Schlussfolgerungen weniger differenziert.
Gerade in einem Land, das akademische Gründlichkeit und kritisches Denken hoch bewertet, ist dieser Befund aufschlussreich. Er verschiebt die Debatte weg von der bloßen Frage nach Produktivität hin zu einer präziseren Frage: Welche Form von Denken verschwindet, wenn der Widerstand verschwindet?
Warum die eingesparte Mühe nicht nebensächlich ist
Es wäre naheliegend, die geringere Belastung als reinen Effizienzgewinn zu lesen. Weniger Mühe, mehr Tempo, also ein Fortschritt. Die Studienlage deutet jedoch auf etwas anderes hin. Der Aufwand, den KI reduziert, ist nicht bloß lästiger Ballast. Er ist häufig genau jener Teil des Prozesses, in dem Verständnis entsteht.
Wer Informationen eigenständig sucht, vergleicht Quellen, erkennt Widersprüche, gewichtet Evidenz und bildet mentale Modelle. In der Kognitionsforschung gilt diese Art von Verarbeitung nicht als unnötige Reibung, sondern als lernrelevante Arbeit. Sie kostet Zeit und Konzentration, aber gerade dadurch zwingt sie dazu, eine Position aktiv aufzubauen.
Große Sprachmodelle, also LLMs, verkürzen diesen Weg erheblich. An die Stelle der eigenständigen Konstruktion tritt eine vorformulierte Antwort. Damit ändert sich die kognitive Rolle der Nutzerinnen und Nutzer. Aus aktivem Schlussfolgern wird passive Plausibilitätsprüfung. Die Frage lautet dann nicht mehr: Was bedeutet die Evidenz tatsächlich? Sondern nur noch: Klingt das plausibel? Letzteres verlangt deutlich weniger.
Mit dem Komfort wächst die Gefahr der Selbstüberschätzung
Die eigentliche Falle liegt daher nicht in offener Gedankenlosigkeit, sondern in wachsender Sicherheit. Eine Untersuchung von Microsoft Research und Carnegie Mellon mit 319 Wissensarbeiterinnen und Wissensarbeitern aus mehreren Ländern fand einen beunruhigenden Zusammenhang: Je stärker das Vertrauen in generative KI ausfiel, desto weniger kritisches Denken wurde auf deren Ergebnisse angewandt.
Eine befragte Person formulierte es bemerkenswert klar: Man nutze KI, um Zeit zu sparen, und habe kaum Raum, länger darüber nachzudenken. Genau dieser Satz trifft den Kern. KI beschleunigt nicht nur Arbeitsschritte. Sie verändert auch die innere Haltung gegenüber einer Aufgabe. Wo Schnelligkeit zum Ziel wird, sinkt die Bereitschaft, Voraussetzungen, Lücken und Widersprüche systematisch zu prüfen.
Wenn Denken sich nicht mehr ganz wie das eigene anfühlt
Hinzu kommt ein Effekt, der in vielen Produktivitätsdebatten kaum vorkommt. Laut einer Berichterstattung von Undark über Forschung aus dem MIT-Umfeld zeigten Studierende, die Essays mit LLM-Unterstützung verfassten, eine geringere spätere Erinnerungsleistung. Mehr als 15 Prozent gaben zudem an, kaum Eigentümerschaft an der eigenen Arbeit zu empfinden.
Das ist keineswegs ein bloß psychologisches Detail. Wer einen Gedankengang nicht als den eigenen erlebt, überprüft ihn meist weniger gründlich, verteidigt ihn unsicherer und integriert ihn schlechter ins Langzeitwissen. Die Antwort ist vorhanden, doch sie wurde nicht im selben Maße innerlich erarbeitet. Genau deshalb kann KI Wissen verfügbar erscheinen lassen, ohne dass daraus belastbares Verstehen entsteht.
Was die Mathematik über schnelle Entscheidungen zeigt
Besonders deutlich wird das Problem im Zusammenspiel mit einer weiteren Studie. Eine Arbeit der University of Utah in Physical Review E modellierte mathematisch, wie Entscheidungsgeschwindigkeit und Verzerrung zusammenhängen. Das Ergebnis war klar: In großen Gruppen trafen die schnellsten Entscheider überproportional häufig jene Entscheidungen, die ohnehin ihren anfänglichen Vorannahmen entsprachen.
Langsamere Entscheider verhielten sich demgegenüber eher so, als seien sie anfangs unvoreingenommen. Das bedeutet nicht, dass Langsamkeit per se überlegen wäre. Es bedeutet vielmehr, dass Deliberation Zeit braucht, wenn Evidenz vorhandene Präferenzen tatsächlich korrigieren soll.
Setzt man beide Befunde zusammen, entsteht ein unangenehmes Bild. KI senkt den empfundenen kognitiven Aufwand um etwa 40 Prozent. Weniger Aufwand führt oft zu höherem Tempo. Und höheres Tempo begünstigt, wie die Utah-Arbeit nahelegt, verzerrtere Entscheidungen. Der operative Gewinn kann also mit epistemischen Kosten erkauft werden.
Wie Sie KI nutzen, ohne Ihr Urteil auszulagern
Die Konsequenz lautet nicht, auf KI zu verzichten. Das wäre weder realistisch noch sinnvoll. Entscheidend ist vielmehr, welche Funktion Sie dem Werkzeug geben. Wer KI als Ersatz für eigenes Denken benutzt, schwächt genau jene Fähigkeiten, die für gutes Urteilen erforderlich sind. Wer sie hingegen als Gegenüber nutzt, kann den Effekt umkehren.
Hilfreich sind drei einfache Regeln. Formulieren Sie zunächst eine eigene vorläufige Position, bevor Sie die KI konsultieren. Behandeln Sie die Antwort anschließend als Entwurf, nicht als Ergebnis. Und zwingen Sie sich schließlich dazu, schriftlich oder mündlich zu begründen, warum Sie zustimmen oder widersprechen. Dadurch kehrt ein Teil jener kognitiven Arbeit zurück, die das System Ihnen abnimmt.
Die Entlastung ist real. Die entscheidende Frage ist nur, was mit der frei gewordenen geistigen Energie geschieht. Wird sie in zusätzliche Prüfung investiert, kann KI nützlich sein. Wird sie bloß in Bequemlichkeit übersetzt, leidet die Qualität des Denkens.
Quellen und Referenzen
Erfahren Sie mehr über unsere redaktionellen Standards →



