La IA sube la nota, pero puede vaciar el aprendizaje

La IA sube la nota, pero puede vaciar el aprendizaje

·5 min de lecturaAprendizaje y Modelos Mentales

El atajo que luce como progreso

Hay mejoras que impresionan porque llegan demasiado rápido. En un experimento con casi 1.000 estudiantes de secundaria en Turquía, quienes practicaron matemáticas con apoyo irrestricto de IA resolvieron 48% más ejercicios correctamente que el grupo sin herramienta. Pero cuando la asistencia desapareció en el examen, su rendimiento cayó y terminó 17% por debajo del grupo de control. Ese patrón fue descrito en el estudio difundido por Wharton y la Universidad de Pennsylvania, liderado por Hamsa Bastani.

La idea que resume el hallazgo tiene un nombre cada vez más usado: deuda cognitiva. La máquina te presta comprensión, te ayuda a rendir mientras el préstamo sigue abierto y deja al descubierto la falta de aprendizaje cuando el apoyo se corta. Por eso la experiencia subjetiva del alumno puede ser engañosa. Siente que avanza, responde más rápido, se frustra menos. Lo que no ve es si realmente está construyendo el andamiaje mental que necesitará después.

Eso importa porque en educación el objetivo no es solo terminar una tarea. Es poder repetir el razonamiento cuando cambian las condiciones, cuando no hay ayuda disponible o cuando aparece un problema nuevo. Si el proceso fue externalizado, el conocimiento queda más frágil de lo que sugieren las buenas notas de práctica.

Lo que parece pasar dentro del cerebro

Esa sospecha fue explorada por Nataliya Kosmyna en un experimento del MIT Media Lab. En un preprint con 54 participantes, el equipo comparó tres grupos durante tareas de escritura: uno con LLM, otro con buscador y otro sin herramientas. El grupo que escribió sin apoyo mostró redes cerebrales más fuertes y distribuidas. El grupo que usó ChatGPT registró la conectividad más débil en las bandas medidas.

El paper también señala un dato que se volvió especialmente llamativo: 83% de los usuarios de ChatGPT no pudo recordar ni un solo pasaje del texto que había escrito pocos minutos antes. La interpretación es potente porque sugiere que la tarea se completó sin dejar una huella de memoria robusta. Conviene decirlo con cuidado: el estudio sigue siendo un preprint y ya recibió objeciones metodológicas públicas. Aun así, el resultado encaja con una preocupación más amplia sobre lo que ocurre cuando la comodidad sustituye el esfuerzo cognitivo.

En la misma dirección apunta una revisión disponible en PMC, que reúne trabajos donde el uso prolongado de IA se asocia con menor retención, deterioro de memoria y debilitamiento del pensamiento crítico. No es una condena total a la herramienta. Es una advertencia sobre el costo invisible de delegar demasiado.

La trampa de depender de respuestas listas

El estudio de Bastani ayuda a entender el mecanismo. El grupo con acceso irrestricto al sistema podía preguntar cualquier cosa, obtener el procedimiento y seguir. Durante la práctica, eso produjo mejores resultados y menos fricción. Pero el mejor desempeño no equivalía a comprensión profunda. Los estudiantes resolvían más porque la herramienta absorbía una parte esencial del razonamiento.

Cuando llegó el examen sin IA, la ventaja se dio vuelta. El grupo de control, que había trabajado con apuntes y esfuerzo propio, conservó mejor los conceptos. El grupo asistido quedó sin la prótesis que había compensado su falta de dominio. Es la versión educativa de un problema más amplio: cuanto más eficiente es el atajo, más fácil es confundir ejecución con aprendizaje.

Ese patrón apareció también en un experimento en Corvinus University of Budapest. Los investigadores reportaron niveles de conocimiento entre 20 y 40 puntos porcentuales por debajo de cohortes anteriores y una mediana de 100% de contenido detectado como generado por IA en las entregas finales, incluso en grupos donde el uso no estaba permitido. Más que una anécdota, sugiere que la dependencia puede instalarse muy rápido.

Ni siquiera el tutor “bueno” cambió el resultado

La parte más incómoda del estudio de Wharton quizá sea esta: también probaron un tutor de IA con salvaguardas pedagógicas. En vez de dar respuestas directas, ofrecía pistas y guiaba pasos del razonamiento. Era, en principio, la versión responsable del mismo recurso. Sin embargo, el grupo no rindió mejor que el control en el examen. No cayó 17%, pero tampoco mostró ganancias de aprendizaje medibles.

Eso obliga a matizar una idea popular. No basta con que la IA esté “bien diseñada” para que enseñe mejor. Si el alumno sigue usando la herramienta como sustituto del esfuerzo, la arquitectura pedagógica mejora poco. La pregunta importante no es solo qué tan buena es la respuesta del sistema, sino si la interacción obliga a pensar o permite escapar del pensamiento.

Algo parecido aparece en análisis sobre cómo la IA reduce el esfuerzo mental y luego pasa factura al razonamiento. El riesgo no es únicamente aceptar un dato falso. Es acostumbrarse a no construir el propio criterio.

Lo que sí deja conocimiento duradero

La respuesta más incómoda para una cultura obsesionada con la productividad es la fricción. El error, la recuperación activa de la memoria, la práctica espaciada y el intento previo a consultar son útiles precisamente porque cuestan. Aprender bien casi nunca se siente tan fluido como completar una tarea con ayuda perfecta.

Eso también coincide con métodos que siguen funcionando mejor que cualquier atajo elegante, como la práctica de recuperación y el intercalado. En el estudio del MIT, el grupo sin herramientas reportó mayor sentido de autoría, más satisfacción y mejor memoria de lo que produjo. La dificultad no era una falla del sistema. Era el mecanismo mismo del aprendizaje.

Para estudiantes, familias y docentes, la regla útil no es prohibir toda IA. Es usarla para revisar, comparar, detectar huecos y comprobar el trabajo propio. El problema empieza cuando hace por ti la parte que debía formar tu criterio. El 48% de mejora desaparece cuando se apaga la herramienta. Lo que queda, si el uso fue pasivo, es una mente que practicó rendimiento, pero no comprensión.

Fuentes y Referencias

  1. Wharton School, University of Pennsylvania
  2. MIT Media Lab
  3. PMC review
  4. Corvinus University of Budapest

Conoce nuestros estándares editoriales

También te puede interesar: