Drie seconden stem kunnen al genoeg zijn voor fraude

Drie seconden stem kunnen al genoeg zijn voor fraude

·4 min leestijdBeveiliging en Privacy

Drie seconden audio kunnen inmiddels genoeg zijn. Moderne AI-tools hebben soms niet meer nodig om de stem van een CEO of CFO geloofwaardig na te bootsen, met een nauwkeurigheid van rond de 85%, volgens cijfers die DeepStrike bundelt op basis van aangehaalde McAfee-data. Dat hoeft geen nette studio-opname te zijn. Een kort fragment uit een earnings call, een keynote of een podcast is vaak al bruikbaar.

Daarmee verandert de dreiging vrij fundamenteel. Jarenlang gold iemands stem als extra verificatie. Als je dacht dat je de bestuurder herkende, voelde dat als bevestiging. Nu is precies dat herkenningsmechanisme een aanvalsvector geworden. De stem van een leidinggevende is niet alleen een signaal van vertrouwen, maar ook grondstof voor fraude.

Het gevaarlijkste aan deze aanval is hoe normaal hij klinkt

Deepfake-stemfraude valt juist op doordat het nauwelijks op een klassieke cyberaanval lijkt. Er is geen opvallende malware, geen versleuteld systeem en geen theatrale hack. Er is alleen een stem die dringend klinkt en logisch aanvoelt. Volgens de in het uitgangsartikel aangehaalde statistieken van DeepStrike verliest een groot bedrijf gemiddeld 680.000 dollar per geslaagde aanval, omgerekend grofweg zo’n €625.000. Tegelijk heeft 80% van de organisaties geen enkel responsprotocol voor deepfake-aanvallen via stem.

Dat maakt dit type fraude zo lastig. De techniek is goedkoop genoeg geworden om vaak te gebruiken en goed genoeg om mee te liften op normale werkprocessen. Een overtuigende stemkloon maken kost minder dan 15 dollar, dus ongeveer €14, en kan in minder dan twintig minuten. Wat eerst als geavanceerd misdaadgereedschap klonk, schuift op richting standaarddienst.

De zaak-Arup liet vooral zien hoe snel context vertrouwen wordt

In februari 2024 sloot een financieel medewerker van Arup aan bij wat een gewone videocall leek. In beeld en geluid zouden de CFO en meerdere senior executives zitten. Alleen was vrijwel niemand echt. Het gevolg: 25 miljoen dollar werd overgemaakt naar fraudeurs, grofweg zo’n €23 miljoen.

Belangrijk aan dat voorbeeld is niet alleen het bedrag. Het laat vooral zien dat een deepfake niet perfect hoeft te zijn om te werken. De combinatie van hiërarchie, tijdsdruk en vertrouwdheid doet al veel van het werk. Als de vraag logisch klinkt binnen een bestaande context, vullen mensen de resterende geloofwaardigheid vaak zelf in.

Daarmee sluit dit risico aan op de cybersecurity-snelkoppelingen die medewerkers dagelijks nemen. Een organisatie die snelheid beloont en verificatie als vertraging ziet, maakt het voor dit soort fraude simpelweg makkelijker.

Oude verdedigingslagen doen soms precies het verkeerde

Veel oudere systemen voor stemverificatie kijken naar kenmerken als toonhoogte, timbre en spreekpatroon. Juist die eigenschappen kan generatieve AI nu heel overtuigend namaken. Dat betekent dat je verdediging niet alleen zwakker wordt, maar in sommige gevallen de nepstem actief als legitiem kan markeren.

Volgens marktcijfers die Gartner samenvat heeft 62% van de organisaties al deepfake-aanvallen meegemaakt waarbij social engineering of misbruik van geautomatiseerde processen een rol speelde. Toch dacht slechts 31% van de bestuurders dat deepfakes hun frauderisico echt verhoogden. Dat verschil tussen ervaring en risicobeeld is best opvallend, en voor aanvallers erg bruikbaar.

Daar komt bij dat meer dan de helft van de medewerkers geen training krijgt in het herkennen van deepfakes. Dan blijft de laatste verdedigingslaag hangen op het gehoor en de intuïtie van één persoon onder druk. Dat is geen serieuze strategie.

Wat wel werkt is verrassend ouderwets

De beste maatregel tegen stemfraude is geen magische detectiesoftware. Het is beleid. Geen financiële transactie, geen wijziging in toegangsrechten en geen gevoelige systeemactie mag worden goedgekeurd op basis van één communicatiekanaal. Als de CFO belt met een dringend verzoek, moet er verificatie volgen via een ander, vooraf vastgelegd kanaal.

Precies die extra frictie maakt verschil. Bedrijven die werken met verificatie via meerdere kanalen, verplichte callbacks en extra controles boven bepaalde drempelbedragen, verlagen succesvolle deepfake-fraude volgens de aangehaalde cijfers met meer dan 90%. Detectietools worden wel beter, maar nog niet goed genoeg om blind op te vertrouwen.

De duurste fout is stem nog steeds als bewijs behandelen

Deepfake-fraude groeit omdat het een oud kantoorinstinct misbruikt: als de stem bekend klinkt, zal het wel kloppen. Dat instinct werkt niet meer. Zodra geld, data of systeemtoegang in het spel zijn, moet stem worden behandeld als een onbetrouwbare input totdat er tweede bevestiging is.

De verliezen door deepfake-gerelateerde fraude kwamen in 2025 uit op 1,1 miljard dollar, dus grofweg €1,01 miljard, terwijl in overzichten met Deloitte-prognoses nog veel hogere schade richting 2027 wordt genoemd. Tegelijk kunnen je AI-agents nu al verrassend makkelijk worden gekaapt. De vraag is daarom niet of jouw organisatie ooit zo’n telefoontje krijgt. De vraag is of degene die opneemt geleerd heeft dat een bekende stem niet meer hetzelfde is als een echte identiteit.

Bronnen en Referenties

  1. DeepStrike
  2. Brightside AI / Arup
  3. Deloitte
  4. Gartner

Lees over onze redactionele standaarden

Misschien vind je dit ook leuk: