AI-advies maakt je blik niet altijd scherper
Het gevaarlijke aan AI-advies is niet altijd dat het fout is. Soms is het precies vaak genoeg fout om ervoor te zorgen dat je zelf minder goed kijkt.
Dat is de nuchtere les achter automatiseringsbias, een beslisfout die sterker wordt wanneer een systeem zelfverzekerd klinkt. In een experiment uit 2026 in Scientific Reports moesten 295 mensen beoordelen of gezichten echt waren of door AI waren gemaakt, terwijl zij AI-advies kregen dat maar in de helft van de gevallen klopte. De opvallende uitkomst: mensen met een positievere houding tegenover AI werden slechter in de taak zodra dat advies verscheen.
Het gangbare idee is dat AI helpt omdat het een tweede mening geeft. De data laten iets anders zien: een zwakke tweede mening kan ongemerkt je eerste oordeel vervangen.
Automatiseringsbias is geen luiheid
Automatiseringsbias ontstaat wanneer mensen een automatisch advies te zwaar laten meewegen, omdat het netter, objectiever en zekerder lijkt dan hun eigen oordeel. Je kunt geconcentreerd, gemotiveerd en intelligent zijn, en toch in deze val lopen. Het probleem is subtieler: het hulpmiddel verandert wat je als bewijs beschouwt.
Synthetische gezichten zijn daar een goed voorbeeld van. Als je kijkt naar huidtextuur, symmetrie van ogen, lichtval en vreemde details in de achtergrond, voelt een algoritmische hint als een praktische snelweg door onzekerheid. Juist bij onzekerheid wordt te veel volgen echter duur.
Volgens het onderzoek in Scientific Reports trok AI-advies dat slechts 50 procent correct was het oordeel alsnog de verkeerde kant op bij mensen die AI al positief beoordeelden. De machine hoefde niet beter te zijn dan de mens. Aanwezig zijn was genoeg.
Positief zijn over AI is niet hetzelfde als goed kalibreren
De snelle conclusie zou zijn dat sceptici veiliger zijn. Dat is te simpel. Het echte risico is niet enthousiasme, maar enthousiasme zonder kalibratie.
Wie AI in het algemeen krachtig vindt, kan elke uitkomst gaan behandelen als een betrouwbaar waarschijnlijkheidssignaal, ook wanneer dat specifieke systeem geen voordeel heeft bewezen voor die specifieke beslissing. In het gezichtenexperiment was het advies niet beter dan kop of munt. Toch maakte een positieve houding tegenover AI sommige deelnemers gevoeliger om het te volgen.
Dat is het punt dat in veel gesprekken over AI-gebruik ontbreekt. Vertrouwen is geen karaktertrek en ook geen bewijs dat je modern werkt. Het is een meetvraag: hoe vaak heeft dit systeem gelijk bij deze taak, onder deze omstandigheden?
Een overzicht uit 2026 in AI & Society stelt dat automatiseringsbias vooral riskant is in zorg, recht en openbaar bestuur, omdat fouten daar niet cosmetisch zijn. Hetzelfde patroon dat iemand een nepgezicht laat missen, kan een professional een tegenstrijdige aanwijzing laten negeren.
De automatische hint kan sterker worden dan het bewijs
Een artikel uit april 2026 in Philosophy & Technology maakt onderscheid tussen zwakke en sterke automatiseringsbias. Zwak betekent dat een automatische hint je oordeel duwt. Sterk betekent dat je die hint volgt, ook wanneer ander bewijs de andere kant op wijst.
Daar worden moderne AI-tools lastig. Ze geven niet alleen antwoord, maar ordenen opties, vatten meningsverschillen samen, rangschikken keuzes en klinken vaak rustiger dan de mens die ze controleert. Een vloeiende formulering kan dan gaan voelen als deskundigheid.
Je ziet hetzelfde mechanisme buiten beeldherkenning. Beleggers verdedigen posities die ze nauwelijks begrijpen, recruiters lezen screeningscores alsof het diagnoses zijn en managers behandelen dashboards alsof meten hetzelfde is als weten. Ons stuk over choice blindness in stock decisions laat dezelfde ongemakkelijke beweging zien: mensen kunnen achteraf een keuze uitleggen, zelfs wanneer die keuze gedeeltelijk voor hen is gemaakt.
Laat AI vertrouwen per taak verdienen
De praktische oplossing is niet om AI af te wijzen of menselijke intuïtie te verheerlijken. Beter is om bij herhaalbare beslissingen drie dingen uit elkaar te halen: maak eerst je eigen oordeel, vraag daarna welk bewijs de AI ongelijk zou geven en meet vervolgens of het systeem de nauwkeurigheid in die smalle taak echt verbetert.
Zo wordt AI een gemeten input in plaats van een autoriteit. Het beschermt ook tegen het comfortabele gevoel van een tool die geavanceerd oogt, maar presteert als een muntworp. Een verwante kwetsbaarheid zie je bij AI-systemen zelf: in onze analyse van AI agents falling for dark patterns was het probleem niet rauwe intelligentie, maar hoe gemakkelijk een beslisproces door een overtuigende interface kon worden gestuurd.
Als een AI-label de volgende keer zegt dat een gezicht, cv, transactie of kans waarschijnlijk echt is, vraag dan niet of je AI vertrouwt. Vraag of deze specifieke AI het recht heeft verdiend om je eigen blik te onderbreken. Dat is een klein verschil, maar in de praktijk maakt het uit.
Verder lezen:
Bronnen en Referenties
- Scientific Reports — Een experiment uit 2026 met 295 deelnemers liet zien dat AI-advies met 50 procent nauwkeurigheid mensen met een positieve AI-houding slechter maakte in het onderscheiden van echte en synthetische gezichten.
- AI & Society — Een overzicht uit 2026 beschrijft automatiseringsbias als risico in zorg, recht en openbaar bestuur, omdat mensen te sterk op geautomatiseerde aanbevelingen kunnen leunen.
- Philosophy & Technology — Een artikel uit april 2026 onderscheidt zwakke en sterke automatiseringsbias en benadrukt het ethische risico wanneer gebruikers automatische signalen volgen ondanks tegengesteld bewijs.
Lees over onze redactionele standaarden →



