92% van de AI-agents is te hacken, en niemand kijkt mee

92% van de AI-agents is te hacken, en niemand kijkt mee

·2 min leestijdBeveiliging en Privacy

In 92% van de gevallen trapt je AI-agent erin

Een aanval via prompt injection (het manipuleren van AI-instructies met verborgen opdrachten) slaagt in 92% van de gevallen bij grote taalmodellen. Niet bij één model, maar bij acht productierijpe modellen die Cisco testte voor het State of AI Security 2026-rapport. Het gaat hier niet om een softwarefout die je kunt repareren: prompt injection maakt misbruik van de kernarchitectuur van AI-systemen. Zoals beveiligingsexpert Bruce Schneier schreef in IEEE Spectrum: AI-systemen trappen in manipulatietechnieken waar een gemiddeld getrainde mens doorheen prikt.

Dat klinkt als een theoretisch probleem. Dat is het niet.

Je meest betrouwbare digitale medewerker is ook je grootste risico

67% van de organisaties zet inmiddels agentic AI in: AI-systemen die zelfstandig beslissingen nemen en acties uitvoeren. Slechts 29% heeft de beveiliging op orde. Één vergiftigde invoer kan zich door je hele operationele keten verspreiden, van klantenservice tot facturatie.

Het punt is: de meeste bedrijven weten niet eens dat ze kwetsbaar zijn.

Het aanvalsoppervlak dat niemand ziet

80% van de organisaties heeft te maken gehad met riskant gedrag van AI-agents. Maar slechts 21% heeft daar zicht op. Shadow AI (AI-gebruik buiten het zicht van IT) leidt tot datalekken die gemiddeld 670.000 dollar meer kosten dan reguliere incidenten. Omgerekend: dat is meer dan een half miljoen euro extra schade, puur omdat niemand keek.

Waarom beveiligingsregels niet werken

Fine-tuning-aanvallen (waarbij het model zelf wordt gemanipuleerd) omzeilden Claude Haiku in 72% en GPT-4o in 57% van de gevallen. OWASP plaatste prompt injection op nummer 1 in de 2025 LLM Top 10 van kwetsbaarheden.

Regels in de prompt zelf bieden dus geen bescherming. Het is alsof je een inbreker tegenhoudt met een bordje “verboden toegang”.

Wat wél werkt

MIT Technology Review concludeert: grensbeveiliging werkt, promptregels niet. Dat betekent concreet: beperk wat je AI-agent mag doen, niet wat je hem vraagt te doen. Geef agents minimale rechten. Zet harde grenzen op welke systemen ze kunnen aanspreken. Monitor hun output.

De rekening loopt op

64% van de bedrijven met meer dan een miljard dollar omzet verloor al meer dan een miljoen dollar aan AI-gerelateerde incidenten. De vraag is niet óf je AI-agents worden aangevallen, maar of je het merkt wanneer het gebeurt.

Bronnen en Referenties

  1. Cisco State of AI Security 2026
  2. EY Survey 2026
  3. IEEE Spectrum / Bruce Schneier
  4. OWASP
  5. MIT Technology Review

Lees over onze redactionele standaarden

Misschien vind je dit ook leuk: