Cuanto más confías en la IA, menos la revisas
En cerca de cuatro de cada diez ocasiones, las personas siguen una recomendación de IA aunque el error sea visible. Esa es la conclusión inquietante de un estudio publicado en 2026 en Scientific Reports, en el que 295 participantes debían decidir si unos rostros eran reales o generados por IA. La mitad recibió orientación etiquetada como proveniente de un sistema automatizado, y esa orientación era correcta solo la mitad del tiempo. Lo más llamativo no fue únicamente la obediencia al consejo equivocado, sino que quienes tenían una actitud más favorable hacia la IA rindieron peor al detectar errores.
Eso obliga a cambiar el foco. No estamos ante una simple historia de máquinas defectuosas. Estamos ante una historia de juicio humano bajo influencia. Cuando una respuesta aparece con tono de sistema confiable, muchas personas dejan de evaluarla como una hipótesis y empiezan a tratarla como punto de partida.
El problema no es la IA, sino la rendición del juicio
A este patrón se le llama sesgo de automatización: la tendencia a conceder demasiado peso a una sugerencia automatizada incluso cuando hay señales para cuestionarla. No es un fenómeno nuevo, pero sí está entrando en más tareas y en más sectores al mismo tiempo. Antes se asociaba con aviación o sistemas industriales; hoy aparece en herramientas de oficina, flujos de análisis, atención al cliente y revisión documental.
Un experimento de 2025 de LMU Munich y University of Maryland, con 2.784 participantes, vuelve el problema muy concreto. Las personas tenían que extraer datos de emisiones de reportes corporativos con ayuda de sugerencias generadas por IA. Algunas eran correctas y otras no. El hallazgo central fue que la actitud frente a la IA predijo el desempeño mejor que otros rasgos individuales y mejor que los incentivos económicos. Los participantes más escépticos detectaron más errores; los más favorables a la automatización mostraron una dependencia excesiva de las sugerencias algorítmicas.
La confianza previa cambia lo que revisas
Ese matiz es decisivo porque desmonta una explicación demasiado cómoda. No se trata solo de pereza o falta de ganas de revisar. La confianza previa altera la manera en que miras la evidencia. Si crees que el sistema suele acertar, dejas pasar más cosas antes de activar la duda. La recomendación no solo influye en tu respuesta final; influye en cuánto esfuerzo cognitivo inviertes en comprobarla.
En el estudio de Lancaster eso quedó especialmente claro. Entre quienes recibieron guía atribuida a IA, las actitudes más positivas hacia estas herramientas se asociaron con una menor capacidad para distinguir entre rostros reales y sintéticos. Cuando la guía se atribuía a humanos, la propensión general a confiar en otras personas no producía el mismo efecto. La máquina, por su envoltorio de precisión, parece ocupar un lugar distinto en la mente del usuario.
Ni la experiencia profesional te inmuniza
Tampoco sirve refugiarse en la idea de que el experto siempre corregirá a tiempo. Una revisión publicada por BrainFacts.org, vinculada a la Society for Neuroscience, recoge un estudio con radiólogos evaluando mamografías. Cuando la IA ofrecía resultados incorrectos, los radiólogos con poca o mediana experiencia vieron caer su precisión en detección de cáncer de alrededor de 80% a cerca de 22%. Entre los más experimentados, la caída fue de aproximadamente 80% a 45%.
El dato importa porque muestra que la recomendación algorítmica funciona como ancla. El profesional sigue mirando la imagen, sí, pero ya no la mira desde cero. La mira después de que una máquina sugirió una interpretación, y ese primer encuadre condiciona lo que considera plausible. La experiencia protege un poco, no lo suficiente.
América Latina adopta IA más rápido de lo que fortalece sus controles
En América Latina, este problema merece más atención precisamente porque la adopción avanza. La CEPAL advirtió en 2025 que la IA ya está impulsando la productividad en la región, aunque América Latina representa apenas 1,56% del gasto global en esta tecnología y sigue arrastrando brechas en talento, inversión y transformación sectorial. En paralelo, el ILIA 2025 mostró que la adopción regional se acelera, pero con contrastes fuertes en gobernanza y preparación institucional.
Eso vuelve más delicada la conversación. La región no solo está incorporando herramientas de IA; lo está haciendo mientras aún discute cómo evaluarlas, auditarlas y entrenar a quienes las usan. En ese contexto, confiar sin fricción puede convertirse en una importación muy rápida de errores.
Qué sí ayuda a reducir el sesgo
La investigación no sugiere una solución mágica. Más bien apunta a una incomodidad útil: el problema no se corrige solo con entusiasmo, incentivos o con decir que “el humano decide al final”. El estudio de Múnich, de hecho, encontró que los incentivos monetarios no mostraron un efecto consistente en el rendimiento. Y una revisión sistemática en el Journal of the American Medical Informatics Association documentó que, cuando las personas se acostumbran a sistemas automatizados, tienden a reducir su monitoreo y a confiar más cuando la confianza está mal calibrada.
Lo que parece ayudar es introducir fricción inteligente: hacer visibles las tasas de error, separar sugerencia de decisión, exigir revisión activa en tareas críticas y preservar una cultura en la que cuestionar a la IA no se perciba como lentitud. El costo de aceptar una respuesta demasiado rápido no está solo en el error de hoy. Está en el entrenamiento mental que deja listo el error de mañana. Por eso la pregunta relevante ya no es si la IA se equivoca. La pregunta es qué pasa con tu juicio cuando el sistema habla con suficiente seguridad como para que dejes de comprobar.
Fuentes y Referencias
Conoce nuestros estándares editoriales →


