L’IA peut faire monter la note, pas le savoir
Le progrès rapide qui n’est pas forcément un apprentissage
Certaines améliorations impressionnent parce qu’elles arrivent trop vite. Dans une expérimentation menée auprès de près de 1.000 lycéens en Turquie, les élèves autorisés à utiliser librement une IA pendant leurs exercices de mathématiques ont résolu 48 % de problèmes en plus que le groupe témoin. Mais lorsque l’assistance a disparu au moment de l’évaluation, leur performance est devenue inférieure de 17 % à celle des élèves n’ayant jamais utilisé l’outil. Ce schéma a été présenté dans l’étude relayée par Wharton et l’Université de Pennsylvanie, dirigée par Hamsa Bastani.
Le terme qui permet de lire ce paradoxe est celui de dette cognitive. L’outil prête une forme de compréhension immédiate, améliore la performance tant qu’il reste accessible, puis révèle l’absence d’ancrage lorsque l’appui disparaît. C’est précisément ce qui rend l’IA éducative si ambiguë. L’élève avance plus vite, ressent moins de friction, obtient de meilleurs résultats à court terme. Pourtant, rien ne garantit qu’il ait réellement consolidé les concepts.
Or apprendre ne consiste pas seulement à produire une bonne réponse. Il s’agit aussi de pouvoir retrouver le raisonnement plus tard, seul, dans un autre contexte, sans interface pour guider chaque étape. À partir du moment où l’outil prend en charge une partie décisive de l’effort mental, la bonne note peut masquer un savoir fragile.
Ce que l’on entrevoit du côté du cerveau
Cette intuition a aussi été explorée sur le plan neurocognitif par Nataliya Kosmyna, au MIT Media Lab. Dans un preprint portant sur 54 participants, trois groupes ont été comparés pendant des tâches de rédaction: un groupe avec LLM, un autre avec moteur de recherche et un troisième sans assistance. Les participants sans outil externe ont présenté les réseaux cérébraux les plus forts et les plus distribués. Le groupe utilisant ChatGPT affichait, lui, la connectivité la plus faible dans les bandes mesurées.
Le papier rapporte également un résultat très commenté: 83 % des utilisateurs de ChatGPT ne parvenaient pas à restituer le moindre passage du texte qu’ils venaient pourtant d’écrire. L’idée est forte, car elle suggère une production sans véritable trace mnésique. Il faut toutefois rester rigoureux. Cette étude circule encore sous forme de preprint et a déjà fait l’objet de critiques méthodologiques publiques. Cela n’annule pas ses observations, mais impose une lecture prudente.
Le cadre général, lui, rejoint une revue disponible sur PMC, qui rassemble des travaux associant l’usage prolongé de l’IA à une baisse de rétention, à un affaiblissement de la mémoire et à une moindre mobilisation de l’esprit critique. Il ne s’agit donc pas d’opposer naïvement technologie et apprentissage. Il s’agit de rappeler qu’un esprit trop assisté encode souvent moins.
La dépendance ne ressemble pas toujours à de la paresse
La force de l’étude de Bastani est de montrer que le problème peut naître au cœur même d’un usage apparemment sérieux. Le groupe avec accès libre au système pouvait poser toutes les questions nécessaires, recevoir un déroulé de solution et avancer sans blocage. Pendant la phase d’entraînement, cela produisait des résultats supérieurs. Pourtant, cette réussite semblait reposer en partie sur une externalisation du travail conceptuel.
Lorsque l’examen a eu lieu sans IA, l’avantage s’est renversé. Les élèves du groupe témoin avaient davantage peiné, mais ils avaient aussi davantage construit. Les autres avaient performé sur une compréhension empruntée. Une fois le soutien retiré, l’écart est apparu. C’est moins un reproche moral qu’une mécanique: plus l’outil rend l’exécution fluide, plus il devient facile de confondre résolution et apprentissage.
Un signal comparable apparaît dans une expérience menée à la Corvinus University of Budapest. Les auteurs y décrivent des niveaux de connaissance inférieurs de 20 à 40 points à ceux de cohortes précédentes, ainsi qu’une médiane de 100 % de contenu détecté comme généré par IA dans les copies finales, y compris dans les groupes où son usage n’était pas autorisé. Ce n’est pas seulement un détail frappant. C’est le signe d’une dépendance qui s’installe vite.
Pourquoi même un “bon” tuteur n’apporte pas la solution
L’aspect le plus instructif de l’étude de Wharton tient peut-être au second outil testé. Les chercheurs n’ont pas seulement observé un chatbot sans contrainte. Ils ont aussi évalué un tuteur doté de garde-fous pédagogiques, conçu pour donner des indices et guider le raisonnement plutôt que livrer directement la solution. On pourrait s’attendre à ce que cette version améliore l’apprentissage. Or le groupe concerné a obtenu, à l’examen, des résultats comparables à ceux du groupe témoin, sans avantage net.
Cela oblige à sortir d’une vision trop simple du débat. Une IA mieux conçue peut limiter les dégâts, mais elle ne produit pas mécaniquement davantage de savoir. Tout dépend du point de savoir si l’élève continue de faire le travail mental qui ancre les notions. Une bonne interface ne remplace pas l’effort intellectuel. Au mieux, elle peut l’orienter.
Cette inquiétude rejoint d’autres analyses sur la baisse de l’effort cognitif sous assistance IA. Le danger n’est pas seulement de croire une réponse erronée. Il est aussi de s’habituer à ne plus élaborer soi-même son jugement.
Ce qui construit vraiment un savoir durable
La réponse la moins séduisante, mais la plus cohérente avec ces travaux, tient en un mot: la friction. L’erreur, le rappel actif, la répétition espacée, le fait d’essayer avant de vérifier, tout cela semble plus coûteux sur le moment. C’est pourtant ce coût qui stabilise la mémoire et approfondit la compréhension.
Cette logique rejoint des méthodes qui restent remarquablement efficaces, comme la pratique de récupération et l’entrelacement. Dans l’expérience du MIT, le groupe sans outil déclarait le plus fort sentiment d’appropriation, la plus grande satisfaction et la mémoire la plus solide de ce qu’il avait produit. La difficulté n’y apparaissait pas comme un défaut. Elle était la condition même de l’apprentissage.
Pour les élèves, les parents et les enseignants, la conclusion utile n’est donc pas l’interdiction générale. L’IA peut servir à vérifier un raisonnement, comparer des approches, repérer des lacunes. Le problème commence lorsqu’elle accomplit à votre place la part du travail qui devait former votre intelligence du sujet. Le gain de 48 % disparaît avec l’outil. Ce qui reste, en cas d’usage passif, est une pensée entraînée à s’appuyer, pas à tenir seule.
Sources et Références
Découvrez nos standards éditoriaux →



