Vos agents IA peuvent être détournés dans 92 % des cas, et la plupart des entreprises l'ignorent

Vos agents IA peuvent être détournés dans 92 % des cas, et la plupart des entreprises l'ignorent

·3 min de lectureSécurité et Confidentialité

92 % de réussite : l'attaque invisible que vos agents IA ne détectent pas

Une attaque par injection de prompt en plusieurs étapes réussit dans 92 % des cas contre les grands modèles de langage. Ce chiffre provient du rapport Cisco State of AI Security 2026, qui a testé huit modèles en production. Le principe est redoutable de simplicité : l'injection de prompt exploite l'architecture même du système. Comme Bruce Schneier l'a analysé dans IEEE Spectrum, les systèmes d'IA succombent à des techniques de manipulation qu'un humain ayant reçu une formation minimale rejetterait immédiatement.

Le paradoxe mérite qu'on s'y arrête. Les entreprises déploient massivement des agents autonomes, convaincues de leur fiabilité, tout en négligeant les mécanismes de sécurité les plus élémentaires.

Votre collaborateur numérique le plus fiable est aussi votre plus grande vulnérabilité

67 % des organisations utilisent déjà de l'IA agentique (des systèmes capables d'agir de façon autonome). Seules 29 % d'entre elles ont mis en place des protections adaptées. Une seule entrée empoisonnée suffit à se propager dans l'ensemble de la chaîne opérationnelle. Dans le contexte européen, où le règlement sur l'IA impose des obligations de transparence et de gestion des risques, cet écart entre adoption et sécurisation pose un problème de conformité autant que de protection.

La surface d'attaque que personne ne voit

80 % des organisations ont été confrontées à des comportements risqués de leurs agents IA. Seules 21 % disposent d'une visibilité réelle sur ces incidents. L'IA dite « shadow » (déployée sans validation de la DSI) génère des violations de données qui coûtent en moyenne 670 000 dollars de plus que les incidents classiques. Pour les entreprises françaises soumises au RGPD, chaque faille non détectée représente un double risque : financier et réglementaire.

Pourquoi les garde-fous ne fonctionnent pas

Les attaques par ajustement fin (fine-tuning) contournent Claude Haiku dans 72 % des cas et GPT-4o dans 57 %. L'OWASP a classé l'injection de prompt en première position de son Top 10 LLM 2025. Les règles intégrées au niveau du prompt, aussi sophistiquées soient-elles, ne constituent pas une barrière fiable.

Ce qui fonctionne réellement

Le MIT Technology Review établit une distinction essentielle : les règles imposées au niveau du prompt échouent, tandis que l'application de limites structurelles (boundary enforcement) fonctionne. Il ne s'agit plus de demander poliment au modèle de se comporter correctement, mais de contraindre architecturalement ce qu'il peut faire. Concrètement : isolation des environnements d'exécution, contrôle strict des permissions, validation systématique des sorties avant toute action. L'ANSSI recommande d'ailleurs un cloisonnement physique et logique strict entre le système d'IA et le reste du système d'information.

Le compteur tourne

64 % des entreprises dont le chiffre d'affaires dépasse le milliard de dollars ont perdu plus d'un million de dollars à cause de défaillances liées à l'IA. La question n'est plus de savoir si votre organisation sera ciblée, mais si elle sera préparée quand cela arrivera.

Sources et Références

  1. Cisco State of AI Security 2026
  2. EY Survey 2026
  3. IEEE Spectrum / Bruce Schneier
  4. OWASP
  5. MIT Technology Review

Découvrez nos standards éditoriaux

Cela pourrait vous plaire :