1 006 citations fictives : l'IA hallucine dans les tribunaux

1 006 citations fictives : l'IA hallucine dans les tribunaux

·4 min de lectureJuridique Pratique pour la Vie et le Travail

Le tribunal d'Orléans a découvert quinze fausses références : l'IA fabrique des jurisprudences que personne ne vérifie

En décembre 2025, le tribunal administratif d'Orléans a adressé une mise en garde à un avocat qui avait cité une quinzaine de références jurisprudentielles entièrement inventées par une intelligence artificielle. Quelques semaines plus tôt, deux décisions similaires avaient été rendues à Grenoble. Ces trois affaires ne sont pas des incidents isolés : une base de données spécialisée recense désormais plus de 1 006 dossiers juridiques contenant des citations fabriquées par l'IA dans le monde, et le chiffre augmente chaque semaine.

La France se trouve dans une position singulière. Elle est le seul pays au monde à avoir criminalisé l'analytique judiciaire, tout en accélérant l'intégration de l'IA dans ses tribunaux. Cette contradiction révèle un problème que l'efficacité seule ne résoudra pas.

Quand l'efficacité judiciaire devient un argument irrésistible

En Argentine, l'assistant IA Prometea a permis aux procureurs de Buenos Aires de passer de 130 dossiers traités par mois à près de 490. Le système VICTOR, déployé à la Cour suprême du Brésil, a réduit le temps d'évaluation des recours de 44 minutes à quelques secondes. En Chine, le tribunal intermédiaire de Shenzhen a été le premier à intégrer systématiquement un modèle de langage dans le raisonnement judiciaire, en juin 2024.

En France, le ministère de la Justice a lancé en 2025 un plan en trois phases pour intégrer l'IA dans les tribunaux : un assistant IA dès 2025, une formation renforcée des magistrats entre 2026 et 2027, puis l'IA comme « pilier du service public de la justice » à partir de 2027. Douze cas d'usage prioritaires ont été identifiés. L'efficacité n'est plus en question. Ce qui reste en suspens, c'est le prix que la justice est prête à payer pour cette rapidité.

Le biais que la vitesse ne corrige pas

Lorsque des chercheurs de PMC ont examiné les biais de l'IA dans les décisions judiciaires, ils ont découvert un mécanisme préoccupant : les données historiques sur lesquelles ces systèmes sont entraînés contiennent déjà des décennies de biais documentés, raciaux, socioéconomiques et géographiques. Entraîner une IA sur des décisions biaisées n'élimine pas le préjugé : cela l'automatise à grande échelle, en le drapant dans l'autorité de l'objectivité algorithmique.

Les Pays-Bas en ont fait l'expérience avec le système SyRI, conçu pour détecter la fraude sociale. Un tribunal néerlandais l'a invalidé pour violation de la Convention européenne des droits de l'homme : le système ciblait de manière disproportionnée les quartiers à faibles revenus et à forte population immigrée. En France, la cour d'appel de Paris a rendu en avril 2025 une décision inédite reconnaissant un vice de procédure lié à l'impossibilité d'accéder aux données d'entraînement d'un algorithme ayant influencé un aménagement de peine.

L'article 33 : quand la France criminalise ce que les autres ignorent

Depuis 2019, l'article 33 de la loi de réforme pour la justice interdit d'utiliser l'IA pour analyser ou prédire les décisions judiciaires, sous peine de poursuites pénales pouvant aller jusqu'à cinq ans d'emprisonnement. Le Conseil constitutionnel a validé cette interdiction en estimant qu'elle empêche le « profilage des professionnels de justice » et les « stratégies de sélection de juridiction ».

Cette loi n'existe pas parce que la France craint l'efficacité. Elle existe parce que le législateur a anticipé un monde où les justiciables choisiraient leur juge en fonction d'un algorithme prédictif. L'Allemagne et le règlement européen sur l'IA adoptent une approche différente en classant l'IA judiciaire comme « à haut risque » et en exigeant des évaluations de conformité, sans interdiction formelle. L'UNESCO a publié ses premières recommandations pour l'IA dans les tribunaux en 2025, en rassemblant 41 pays. La majorité d'entre eux n'ont encore aucun cadre contraignant.

Ce que cela signifie pour quiconque pourrait se retrouver devant un juge

L'écart entre les capacités de l'IA et sa gouvernance dans les tribunaux ne se réduit pas : il s'élargit. Chaque mois, de nouveaux systèmes entrent en service dans de nouvelles juridictions pendant que les régulateurs rédigent des documents de position.

Si vous avez un jour supposé qu'une décision de justice reflétait le raisonnement approfondi d'un magistrat humain, cette supposition exige désormais vérification. Des chercheurs de Cambridge avertissent que le recours non critique à l'IA générative érode le raisonnement juridique profond, celui qui repose sur la lecture attentive et la pensée analogique : précisément les compétences qui distinguent un jugement d'un calcul.

Le 1 007e dossier contenant des hallucinations est en cours de rédaction quelque part en ce moment. La question est de savoir si le juge qui l'examinera fera la différence, et si quiconque lui impose de vérifier.

Sources et Références

  1. AI Hallucination Cases Database
  2. OECD
  3. PMC
  4. Cambridge
  5. Artificial Lawyer

Découvrez nos standards éditoriaux

Cela pourrait vous plaire :