Hoe meer je AI vertrouwt, hoe minder je controleert

Hoe meer je AI vertrouwt, hoe minder je controleert

·5 min leestijdCognitieve Vooroordelen en Besluitvorming

In ongeveer vier van de tien gevallen volgen mensen een AI-advies terwijl de fout best te zien is. Dat volgt uit een onderzoek uit 2026 in Scientific Reports. Daarin moesten 295 deelnemers beoordelen of gezichten echt waren of door AI gemaakt. De helft kreeg hulp die als AI-advies werd gepresenteerd, terwijl die hulp maar in de helft van de gevallen klopte. Het verontrustende zat niet alleen in het aantal foute overnames, maar vooral in iets anders: deelnemers met een positievere houding tegenover AI presteerden slechter in het herkennen van fouten.

Daarmee verschuift het probleem. Het gaat niet alleen om systemen die onjuiste antwoorden geven. Het gaat ook om wat er met menselijk oordeel gebeurt zodra er al een ogenschijnlijk nette, plausibele en efficiënte aanbeveling naast de taak staat. Dan wordt een advies al snel een startpunt, terwijl het juist een hypothese had moeten blijven.

Het probleem begint niet bij het antwoord

Dit verschijnsel heet automatiseringsbias. In gewone taal: de neiging om een geautomatiseerde aanbeveling te veel gewicht te geven, ook als er reden is om te twijfelen. Dat is geen nieuw idee, maar het duikt nu wel op in veel meer soorten werk. Niet alleen in cockpitsoftware of klinische systemen, maar ook in documenten, dashboards, analyses en generatieve assistenten.

Een experiment uit 2025 van LMU Munich en University of Maryland maakt dat concreet. Daarin werkten 2.784 deelnemers met AI-suggesties bij het overnemen van uitstootdata uit bedrijfsrapporten. Sommige suggesties waren goed, andere fout. De opvallendste uitkomst was dat je houding tegenover AI sterker samenhing met je prestatie dan allerlei andere persoonlijke kenmerken. Sceptische deelnemers zagen fouten vaker; mensen die positiever tegenover automatisering stonden, namen onjuiste suggesties juist eerder over.

Vertrouwen verandert hoe je kijkt

Dat is belangrijk, omdat het laat zien dat overmatig vertrouwen niet simpelweg luiheid is. Vertrouwen verandert de manier waarop je informatie verwerkt. Als je verwacht dat een systeem meestal gelijk heeft, verlaag je ongemerkt je eigen controledrempel. Je checkt minder streng, niet per se omdat je dat bewust kiest, maar omdat de aanbeveling al als geloofwaardig binnenkomt.

Precies dat zag je ook in het Lancaster-onderzoek. Wie AI-hulp kreeg en al positiever over AI dacht, kon echte en synthetische gezichten minder goed uit elkaar houden. Wanneer dezelfde taak met zogenaamd menselijke hulp werd uitgevoerd, had algemeen vertrouwen in andere mensen niet hetzelfde effect op de nauwkeurigheid. De machine krijgt kennelijk een ander soort cognitief voordeel: ze oogt objectief voordat ze dat heeft bewezen.

Ook experts buigen mee

Wie denkt dat ervaring dit probleem oplost, komt bedrogen uit. Een bespreking op BrainFacts.org van onderzoek naar mammografie laat zien hoe sterk een verkeerd AI-signaal professionals kan beïnvloeden. Wanneer de AI fout zat, daalde de nauwkeurigheid van minder ervaren en middelmatig ervaren radiologen van ongeveer 80% naar circa 22%. Zelfs zeer ervaren radiologen zakten van ongeveer 80% naar 45%.

Dat maakt het probleem nuchter gezegd ernstiger. Het is dus niet genoeg om een expert naast de AI te zetten en te denken dat menselijke controle vanzelf alle fouten eruit haalt. De aanbeveling van het systeem werkt als anker. Je ziet nog steeds de scan, de kandidaat of het rapport, maar niet meer onbevangen.

Als controle routine wordt, verslapt die

Daar komt nog iets bij. Een systematische review in het Journal of the American Medical Informatics Association beschrijft dat mensen bij toenemende gewenning aan geautomatiseerde systemen minder actief gaan monitoren. Vertrouwen dat niet goed is afgestemd op de werkelijke betrouwbaarheid van het systeem vergroot de kans op overmatig leunen op de uitkomst. Vertrouwdheid kan dus precies die controle verzwakken die je nodig hebt om fouten op te vangen.

Voor organisaties zit daar het langetermijnrisico. Niet alleen in de eerste misser, maar in het langzaam afleren van zelfstandig controleren. Bij recruitment kan dat eindigen in kritiekloze cv-selectie. In finance in het volgen van signalen waarvan niemand de logica nog echt checkt. En in zorg of compliance in het automatisch doorduwen van iets dat vroeger nog een tweede blik kreeg.

Wat wel helpt, en wat niet

De onderzoeken wijzen niet op één simpele oplossing. Ze laten vooral zien wat niet genoeg is. Meer enthousiasme voor AI helpt niet. Financiële prikkels alleen helpen ook niet veel. En een mens formeel “in de lus” houden stelt weinig voor als het werkproces die persoon in de praktijk vooral leert bevestigen in plaats van beoordelen.

Wat waarschijnlijk beter werkt, is nuttige frictie inbouwen: foutmarges zichtbaar maken, actieve controle afdwingen bij belangrijke taken, advies en eindbesluit van elkaar scheiden en ruimte laten voor tegenspraak tegen het systeem. Het doel is niet om AI verdacht te maken bij voorbaat. Het doel is om betrouwbaarheid niet te verwarren met uitstraling.

De relevante vraag is daarom niet of AI fouten maakt. Dat doet elk systeem. De echte vraag is wat er met jouw oordeel gebeurt zodra een antwoord al klaarstaat in een toon die professioneel, rustig en zeker klinkt. Juist daar begint automatiseringsbias: niet bij de machine zelf, maar bij de opluchting dat jij misschien niet meer alles hoeft na te kijken.

Bronnen en Referenties

  1. Lancaster University / Scientific Reports
  2. LMU Munich / University of Maryland
  3. BrainFacts.org / Society for Neuroscience
  4. Journal of the American Medical Informatics Association

Lees over onze redactionele standaarden

Misschien vind je dit ook leuk: