1,006 expedientes con citas falsas de IA que ningún juez detectó
En este artículo
- Más de 1,006 expedientes judiciales con citas inventadas por IA: la crisis que nadie resolvió
- El salto de productividad que los tribunales no pueden ignorar
- El sesgo que la velocidad no resuelve
- El vacío regulatorio que América Latina no ha llenado
- Lo que esto significa para quien pueda enfrentar un tribunal
Más de 1,006 expedientes judiciales con citas inventadas por IA: la crisis que nadie resolvió
En 2023, un abogado en Nueva York presentó un escrito con seis citas jurídicas que parecían perfectamente legítimas. Ninguna existía. El juez lo multó con 5,000 dólares y su caso se convirtió en el ejemplo que se repite en cada conferencia de tecnología legal desde entonces. Pero lo que casi nunca se menciona es que ese abogado no fue la excepción: una base de datos actualizada registra ya más de 1,006 escritos judiciales en todo el mundo con citas fabricadas por inteligencia artificial, y el número crece cada semana.
La pregunta incómoda no es si la IA pertenece a los tribunales. Ya está ahí: en México, el sistema JulIA opera en el Poder Judicial Federal, Querétaro lanzó SON-IA en enero de 2026, y en julio de 2025 se sentó el primer precedente judicial mexicano usando IA como herramienta auxiliar técnica. La verdadera pregunta es qué pasa cuando la tecnología que promete democratizar la justicia codifica silenciosamente lo contrario.
El salto de productividad que los tribunales no pueden ignorar
En Argentina, el asistente Prometea ayudó a fiscales de Buenos Aires a pasar de 130 casos mensuales a casi 490: un salto que de otro modo exigiría triplicar el personal. El sistema VICTOR de Brasil redujo el tiempo de evaluación de apelaciones en el Supremo Tribunal de 44 minutos por caso a segundos. En China, el tribunal de Shenzhen integró un modelo de lenguaje entrenado con dos billones de caracteres legales en junio de 2024.
Para América Latina, donde el rezago judicial es crónico (en México hay juzgados con expedientes acumulados durante años), la promesa de eficiencia resulta casi irresistible. Pero la eficiencia es una métrica peligrosa cuando lo que está en juego es la libertad.
El sesgo que la velocidad no resuelve
Cuando investigadores de PMC analizaron el sesgo algorítmico en decisiones judiciales, encontraron algo que debería alarmar a cualquiera: los datos históricos con los que se entrenan estos sistemas ya contienen décadas de discriminación racial, socioeconómica y geográfica documentada. Entrenar una IA con decisiones sesgadas no elimina el prejuicio; lo automatiza a escala y lo envuelve en la autoridad de la "objetividad algorítmica".
Holanda lo comprobó con su sistema SyRI, diseñado para detectar fraude social, que un tribunal holandés anuló por violar la Convención Europea de Derechos Humanos. El sistema apuntaba desproporcionadamente a barrios de bajos ingresos con alta población migrante. La tecnología funcionaba exactamente como fue diseñada; el diseño era el problema.
Colombia ofrece un caso más cercano. Cuando el juez Juan Manuel Padilla usó abiertamente ChatGPT para redactar un fallo sobre atención médica para un niño autista, el análisis publicado en Springer Nature concluyó que la decisión era sustancialmente razonable. Sin embargo, la Corte Constitucional colombiana, en la sentencia T-323/24, exigió requisitos de transparencia: incluso resultados razonables no justifican procesos opacos. Hoy, aproximadamente el 85% de los jueces en Colombia usan versiones gratuitas de ChatGPT o Copilot para redactar documentos, casi siempre sin supervisión formal.
El vacío regulatorio que América Latina no ha llenado
La UNESCO publicó sus primeras directrices para IA en tribunales en 2025, con aportes de 41 países. El documento confirmó lo que los operadores jurídicos ya sabían: la mayoría de países no tiene reglas vinculantes sobre cómo los jueces pueden usar herramientas de IA.
Francia es la excepción más radical. Desde 2019, su Artículo 33 de la Ley de Reforma Judicial criminaliza el uso de IA para analizar o predecir decisiones judiciales, con penas de hasta cinco años de prisión. Alemania y la Ley de IA de la Unión Europea clasifican la IA judicial como "alto riesgo" y exigen evaluaciones de conformidad.
En México, a pesar de contar ya con sistemas operativos como JulIA y Expertius, la propuesta de Ley Federal para el Desarrollo Ético de la IA (2025) aún no establece un marco específico para su uso judicial. El resto de América Latina presenta un panorama similar: adopción acelerada sin regulación proporcional.
Lo que esto significa para quien pueda enfrentar un tribunal
La brecha entre la capacidad de la IA y su gobernanza en los tribunales no se está cerrando, se está ampliando. Cada mes entran en operación nuevos sistemas en nuevas jurisdicciones mientras los reguladores redactan documentos de posición.
Si alguna vez asumiste que una resolución judicial reflejaba el razonamiento cuidadoso de un ser humano, esa suposición ahora requiere verificación. Investigadores de Cambridge advierten que la dependencia acrítica de la IA generativa erosiona el razonamiento jurídico profundo que depende de la lectura atenta y el pensamiento analógico: precisamente las habilidades que distinguen un fallo de un cálculo.
El expediente número 1,007 con citas alucinadas se está redactando en este momento en algún lugar del mundo. La pregunta es si el juez que lo revise sabrá distinguirlo, y si alguien le exige que lo verifique.
Fuentes y Referencias
Conoce nuestros estándares editoriales →



