1.006 rechtszaken met verzonnen AI-citaten die rechters niet opmerkten
In dit artikel
- De SyRI-zaak was pas het begin: hoe AI-hallucinaties de rechtspraak binnensluipen
- 300% meer zaken afhandelen: de belofte die niemand kan negeren
- Het vooroordeel dat snelheid niet oplost
- Het regelgevend vacuüm dat 73% van de juridische professionals ziet
- Wat dit betekent voor iedereen die ooit voor een rechter kan staan
De SyRI-zaak was pas het begin: hoe AI-hallucinaties de rechtspraak binnensluipen
Een advocaat in New York diende een pleitnota in met zes juridische verwijzingen die er volkomen legitiem uitzagen. Geen van die zaken heeft ooit bestaan. De rechter legde hem een boete op van 5.000 dollar, en zijn carrière werd een waarschuwend voorbeeld op elke juridische techconferentie sindsdien. Maar hier wordt het pas echt verontrustend: die advocaat was geen uitzondering. Een lopende database telt inmiddels meer dan 1.006 rechtszaken wereldwijd met door AI verzonnen citaten, en het aantal groeit wekelijks.
De vraag is niet langer of AI thuishoort in de rechtszaal. Die is er al. De vraag is wat er gebeurt wanneer technologie die rechtvaardigheid belooft, stilzwijgend het tegenovergestelde codeert.
300% meer zaken afhandelen: de belofte die niemand kan negeren
In Argentinië hielp de AI-assistent Prometea openbaar aanklagers in Buenos Aires om van 130 zaken per maand naar bijna 490 te gaan, een productiviteitssprong waarvoor anders drie keer zoveel personeel nodig zou zijn. Braziliës VICTOR-systeem, ingezet bij het Hooggerechtshof, reduceerde de beoordelingstijd van beroepszaken van 44 minuten per zaak naar seconden. In China werd de rechtbank van Shenzhen in juni 2024 de eerste die systematisch een groot taalmodel integreerde in juridisch redeneren, getraind op twee biljoen tekens juridische tekst.
Rechtbanken in minstens twaalf landen gebruiken nu AI bij besluitvorming. Het efficiëntieargument staat vast: AI vermindert achterstanden. Maar efficiëntie is een gevaarlijke maatstaf wanneer iemands vrijheid op het spel staat.
Het vooroordeel dat snelheid niet oplost
Toen onderzoekers bij PMC AI-bias in rechtspraak onderzochten, vonden ze iets verontrustends: de historische data waarop deze systemen leren, bevatten al decennia aan gedocumenteerde raciale, sociaaleconomische en geografische vooroordelen. AI trainen op bevooroordeelde uitspraken elimineert geen discriminatie; het automatiseert die, op schaal.
Nederland weet dit uit eerste hand. Het SyRI-systeem, ontworpen om bijstandsfraude op te sporen, werd door een Nederlandse rechter verboden wegens schending van het Europees Verdrag voor de Rechten van de Mens. Het systeem richtte zich disproportioneel op lage-inkomenswijken met veel inwoners met een migratieachtergrond. De technologie werkte precies zoals ontworpen; het ontwerp was het probleem.
Colombia biedt een genuanceerder beeld. Toen rechter Juan Manuel Padilla openlijk ChatGPT gebruikte om een uitspraak te helpen opstellen in een gezondheidszaak over een autistisch kind, bleek uit een Springer Nature-studie dat de AI-ondersteunde beslissing inhoudelijk redelijk was. Maar het Colombiaanse Constitutioneel Hof eiste in uitspraak T-323/24 alsnog transparantievereisten: zelfs redelijke uitkomsten rechtvaardigen geen ondoorzichtige processen.
Het regelgevend vacuüm dat 73% van de juridische professionals ziet
UNESCO publiceerde in 2025 de eerste uitgebreide richtlijnen voor AI in rechtbanken, met bijdragen uit 41 landen. De conclusie bevestigde wat praktijkmensen al wisten: de meeste rechtsgebieden hebben geen bindende regels voor hoe rechters AI-tools mogen inzetten.
Frankrijk staat alleen als meest agressieve regelgever. Sinds 2019 stelt Artikel 33 van de Justitie Hervormingswet het gebruik van AI om rechterlijke beslissingen te analyseren of voorspellen strafbaar, met maximaal vijf jaar gevangenisstraf. Die wet bestaat niet uit angst voor efficiëntie, maar uit angst voor een wereld waarin procespartijen het systeem manipuleren door te voorspellen welke rechter in hun voordeel zal beslissen.
Duitsland en de EU AI Act kiezen een andere route: ze classificeren juridische AI als "hoog risico" en vereisen conformiteitsbeoordelingen zonder een algeheel verbod. De meeste andere landen? Die hebben helemaal geen kader.
Wat dit betekent voor iedereen die ooit voor een rechter kan staan
De kloof tussen wat AI kan en hoe het wordt gereguleerd in de rechtspraak wordt niet kleiner, maar groter. Elke maand gaan nieuwe systemen live in nieuwe rechtsgebieden, terwijl toezichthouders nog bezig zijn met position papers.
Als je ooit hebt aangenomen dat een rechterlijke uitspraak het resultaat was van zorgvuldig menselijk redeneren, dan vereist die aanname nu verificatie. Onderzoekers van Cambridge waarschuwen dat onkritisch vertrouwen op generatieve AI het diepgaande juridische redeneren ondermijnt dat afhankelijk is van zorgvuldig lezen en analogisch denken: precies de vaardigheden die een vonnis onderscheiden van een berekening.
De 1.007e gehallucineerde procesakte wordt ergens nu opgesteld. De vraag is of de rechter die hem beoordeelt het verschil zal zien, en of iemand verlangt dat die rechter dat controleert.
Bronnen en Referenties
Lees over onze redactionele standaarden →



