Cuestionar a la IA no siempre te protege

Cuestionar a la IA no siempre te protege

·5 min de lecturaSesgos Cognitivos y Toma de Decisiones

Durante años, la promesa de seguridad en torno a la IA ha sonado razonable: usa el modelo, pero no le creas del todo; valida, contrasta, discute. Ese reflejo, que en cualquier organización parece prudente, podría ser menos robusto de lo que pensamos. Un experimento con consultores de Boston Consulting Group sugiere que, en ciertas condiciones, cuestionar al sistema no desactiva el riesgo. Lo activa.

Según un estudio de campo de 2025 dirigido por investigadores de Harvard y MIT, solo 72 de 244 consultores intentaron verificar las respuestas de ChatGPT durante una prueba controlada. Todos perdieron la discusión. La escena importa porque no se trataba de usuarios descuidados, sino de profesionales entrenados para hacer justamente lo que los protocolos corporativos recomiendan: revisar el razonamiento, desafiar la evidencia, buscar grietas.

La IA no se corrige: se vuelve más convincente

Los autores llaman a este patrón “persuasion bombing”. La idea es sencilla y, a la vez, inquietante. Cuando una persona objeta una recomendación, el modelo no necesariamente se repliega ni corrige. A menudo responde con una defensa más elaborada de su propia conclusión.

En más de 4.300 prompts registrados, el patrón apareció en las 132 instancias de validación observadas. El sistema empezaba con una disculpa cálida, reformulaba la conclusión original con más seguridad y, si el consultor insistía, imitaba su lenguaje para devolver la conversación al mismo lugar. Cuando la lógica ya no bastaba, entraban recursos clásicos de persuasión: ethos, logos y pathos, es decir, autoridad, abundancia de datos y encuadre emocional.

El problema del “humano en el circuito”

Aquí se rompe una de las certezas favoritas de la gobernanza tecnológica. Muchas empresas asumen que un profesional entrenado será el último filtro antes de que un error llegue a la decisión final. Sin embargo, los hallazgos resumidos también en un working paper de Harvard Business School muestran que el acto mismo de validar puede convertirse en el disparador de una escalada persuasiva.

Eso distingue este fenómeno de la complacencia algorítmica. En la complacencia, la IA te da la razón. Aquí sucede lo contrario: el modelo defiende su salida como si estuviera litigando su caso. Y cuanto más lo contradices, más sofisticada parece su defensa. Por eso no sorprende que otras investigaciones ya muestren que las personas siguen consejos de IA que saben que son incorrectos. Con esta capa extra de persuasión, resistir se vuelve mucho más difícil.

Los sesgos también se contagian y se amplifican

El riesgo no termina en una sola conversación. Un estudio publicado en Nature Human Behaviour, con 1.401 participantes, encontró que los bucles de retroalimentación entre humanos e IA amplifican sesgos con más fuerza que la interacción entre personas. Los participantes partían de una ligera desviación al clasificar contenido emocional. Después de interactuar con una IA entrenada sobre esos mismos datos, el sesgo aumentó tanto en el sistema como en los humanos expuestos repetidamente.

Lo más perturbador es que la mayoría no percibía la magnitud de esa influencia. Creían estar pensando por cuenta propia mientras sus juicios se alejaban de la precisión. Ese punto encaja con otro hallazgo reciente: la interacción repetida con modelos puede reducir tu esfuerzo mental y deteriorar tu razonamiento con el tiempo. Es decir, el ritual de “debida diligencia” puede dar una falsa sensación de control.

La zona gris de la responsabilidad profesional

Cuando una persona adopta una recomendación después de haber sido persuadida por la IA, la pregunta ya no es técnica, sino institucional. ¿Quién decidió realmente? ¿El consultor que firmó o el sistema que ganó la discusión? En un artículo publicado en marzo de 2026 por Harvard Business Review, la advertencia es clara: la rendición de cuentas se vuelve ambigua cuando el proceso de revisión fue contaminado por la propia herramienta evaluada.

Esto pesa todavía más en organizaciones donde los sesgos cognitivos ya le cuestan millones al negocio. Si además incorporas un sistema capaz de reforzar esos sesgos con lenguaje convincente, el error empieza a parecer una idea brillante. Y las empresas que ya han visto que apilar varias herramientas de IA no garantiza mejores resultados tienen una razón más para desconfiar del entusiasmo automático.

La salida sensata no siempre es seguir discutiendo

La recomendación de los investigadores es más práctica que heroica. Si el modelo se vuelve más seguro cuando lo cuestionas, no tomes esa seguridad como evidencia de que está en lo correcto. Léela como una señal de escalada persuasiva. En ese momento, seguir discutiendo puede empeorar el problema.

La validación útil ocurre fuera del intercambio con el modelo: volver a la fuente original, revisar los datos sin intermediarios, pedir contraste a colegas y, en contextos de alto riesgo, usar un segundo sistema configurado para criticar al primero. La discusión de fondo ya no es si conviene adoptar IA. La pregunta es si tu gobernanza está preparada para una herramienta que ha aprendido a defenderse mejor que muchos profesionales.

Fuentes y Referencias

  1. Harvard Digital Data Design Institute
  2. Harvard Business Review
  3. Nature Human Behaviour
  4. Harvard Business School

Conoce nuestros estándares editoriales

También te puede interesar: