A nota sobe com IA. Mas o aprendizado não

A nota sobe com IA. Mas o aprendizado não

·6 min de leituraAprendizado e Modelos Mentais

O atalho que parece avanço

Há um tipo de melhora que engana porque chega rápido demais. No estudo com quase 1.000 alunos do ensino médio na Turquia, estudantes que praticaram matemática com apoio irrestrito de IA resolveram 48% mais questões corretamente do que o grupo sem a ferramenta. Quando a ajuda foi retirada na hora da prova, porém, eles tiveram desempenho 17% pior do que os colegas que nunca haviam usado IA. O resultado foi descrito em um estudo discutido pela Wharton e pela Universidade da Pensilvânia, liderado por Hamsa Bastani.

O conceito que organiza esse padrão é simples e inquietante: dívida cognitiva. A máquina entrega a resposta, o aluno sente que avançou, a tarefa anda. Só que parte do esforço mental que consolida o conhecimento não aconteceu. Enquanto o apoio está disponível, o desempenho parece excelente. Sem ele, aparece o buraco.

Isso ajuda a explicar por que tantas experiências com IA em educação geram entusiasmo no curto prazo e frustração depois. A nota do exercício sobe, a sensação de fluidez melhora, o estudante fica mais confiante. Mas aprender não é apenas chegar a uma resposta certa. É construir o caminho que permite chegar de novo, sozinho, quando o contexto muda.

O que muda no cérebro quando a tarefa é terceirizada

Foi esse mecanismo que a pesquisadora Nataliya Kosmyna tentou observar em um experimento do MIT Media Lab. Em um preprint com 54 participantes, a equipe comparou três grupos durante tarefas de escrita: um com LLM, outro com buscador e um terceiro sem ferramentas externas. O grupo sem apoio apresentou redes neurais mais fortes e mais distribuídas. O grupo com ChatGPT mostrou o menor nível de conectividade entre as faixas medidas.

O paper também relata um dado que chamou atenção no debate público: 83% dos usuários de ChatGPT não conseguiram recordar um único trecho do texto que haviam acabado de escrever. Como se o cérebro tivesse participado pouco da operação e, por isso, registrado pouco do resultado. É um achado importante, embora ainda discutido por outros pesquisadores, porque o estudo circula como preprint e foi alvo de críticas metodológicas posteriores. Ainda assim, a direção do efeito conversa com um problema maior: conveniência demais pode reduzir codificação de memória.

Uma revisão publicada no PMC reforça esse pano de fundo ao reunir trabalhos que associam uso prolongado de IA a declínio de memória, enfraquecimento de pensamento crítico e menor retenção quando o aluno transfere para a ferramenta a parte difícil do raciocínio. Não se trata de demonizar a tecnologia. Trata-se de reconhecer que o cérebro aprende menos quando faz menos.

A armadilha da dependência

No estudo da Wharton, o mecanismo apareceu de forma quase didática. O grupo com acesso irrestrito ao sistema podia perguntar qualquer coisa, receber o raciocínio pronto e seguir adiante. Durante a prática, isso parecia uma vitória inequívoca. Mas o ganho vinha acompanhado de uma dependência escondida. Os alunos estavam resolvendo mais, sem necessariamente entender melhor.

Quando chegou o exame sem IA, a inversão ficou clara. Quem havia enfrentado a dificuldade com material tradicional reteve melhor os conceitos. Quem se apoiou demais na ferramenta perdeu a escada no momento em que precisou subir sozinho. É a mesma lógica de outros ambientes em que a automação acelera a execução, mas enfraquece a compreensão.

Esse risco não apareceu apenas em um contexto. Em um experimento da Corvinus University of Budapest, pesquisadores relataram níveis de conhecimento 20 a 40 pontos percentuais abaixo dos de turmas anteriores e uma mediana de 100% de conteúdo detectado como gerado por IA nas entregas finais, inclusive entre grupos em que o uso não era permitido. O dado impressiona menos como moralismo e mais como sintoma: depois que o atalho vira hábito, ele continua sendo usado mesmo quando deveria desaparecer.

Nem o tutor pedagógico resolveu tudo

A parte mais incômoda do estudo da Wharton talvez seja outra. Os pesquisadores também testaram um tutor com salvaguardas pedagógicas, pensado para oferecer pistas, orientar passos e evitar a entrega direta da solução. Em tese, era o melhor dos mundos. Na prática, o grupo não foi pior que o controle no exame, mas também não foi melhor. O dano diminuiu, o ganho de aprendizagem não apareceu.

Isso sugere que o desenho da ferramenta importa, mas não resolve sozinho o problema. Mesmo uma IA mais cuidadosa pode induzir terceirização do esforço mental se o aluno entrar na interação esperando economia de trabalho, e não construção de entendimento. É por isso que o debate sério sobre IA na educação precisa sair da pergunta “funciona ou não funciona” e entrar em outra: em que etapa ela ajuda sem roubar o processo que forma conhecimento?

A mesma preocupação aparece em análises sobre o custo cognitivo do uso excessivo de IA. O problema não está só no erro factual do modelo. Está no hábito de aceitar saídas plausíveis sem percorrer o raciocínio.

O que constrói aprendizagem durável

A resposta, desconfortável para quem busca eficiência a qualquer preço, é fricção. O erro, a recuperação ativa da memória, a repetição espaçada e o esforço de resolver antes de consultar ajudam justamente porque exigem participação do cérebro. Eles parecem mais lentos no momento, mas deixam marcas mais profundas depois.

Isso também combina com métodos de estudo que continuam superando atalhos elegantes, como prática de recuperação e intercalamento. O que parece menos fluido costuma ensinar mais. O grupo sem ferramentas no estudo do MIT relatou maior senso de autoria, maior satisfação e lembrança mais robusta do que produziu. A dificuldade não era defeito do processo. Era o próprio mecanismo de aprendizagem.

Para estudantes, pais e professores, a regra que emerge é menos radical do que parece. A IA pode ser útil para revisar, checar, comparar caminhos e apontar lacunas. O risco começa quando ela substitui a parte que deveria ser pensada por quem aprende. A melhora de 48% desaparece quando a ferramenta some. O que fica, se o uso foi preguiçoso, é um cérebro que treinou desempenho, mas não treinou domínio.

Fontes e Referências

  1. Wharton School, University of Pennsylvania
  2. MIT Media Lab
  3. PMC review
  4. Corvinus University of Budapest

Conheça nossos padrões editoriais

Talvez você goste de: