Je AI-chat kan zomaar in de rechtszaal belanden
Veel mensen gebruiken ChatGPT, Claude of Gemini inmiddels alsof het een stille adviseur is. Even een lastige clausule laten uitleggen, een onderhandeling aftasten, een belastingvraag ordenen of een antwoord op een juridisch dreigement laten aanscherpen. Dat voelt privé. In werkelijkheid typ je in een systeem dat op servers van een ander draait, onder voorwaarden die de meeste gebruikers nooit echt lezen.
Het lastige inzicht kwam niet uit Silicon Valley, maar uit de rechtszaal
Op 17 februari 2026 zette rechter Jed Rakoff van de federale rechtbank in New York een belangrijke grens op papier. Zoals Gibson Dunn en Crowell & Moring uitleggen, vielen documenten die Bradley Heppner met Claude had opgesteld niet onder het attorney-client privilege en ook niet onder de work product-bescherming.
Heppner, een voormalige CEO, gebruikte Claude nadat hij wist dat hij doelwit was van een grand jury-onderzoek. Zijn advocaten stelden dat die stukken bedoeld waren om feiten te ordenen en gesprekken met de verdediging voor te bereiden. De rechtbank haalde dat argument vrij systematisch uit elkaar. Een chatbot is geen advocaat, Heppner vroeg Claude niet om juridisch advies van een bevoegde professional en, misschien nog belangrijker, de uitwisseling was niet eens vertrouwelijk vanaf het begin.
De echte fout zit vaak al in het plakken van de informatie
Dat laatste is de kern. Zodra je gevoelige informatie in een publieke AI-tool zet, deel je die met een derde partij. Juridisch is dat iets heel anders dan privé aantekeningen maken voor een gesprek met je advocaat. Ward and Smith vat dat scherp samen: wat eerst beschermd leek, kan zijn status verliezen zodra het in een openbare chatbot wordt geplakt.
Voor Nederlandse lezers is dat relevant omdat de intuïtie vaak de andere kant op wijst. We denken al snel: er is toch privacywetgeving, er is toch de AVG, dus dit zal wel afgeschermd zijn. Maar privacyrecht en bewijsprivilege zijn niet hetzelfde. De AVG kan regels stellen aan verwerking en rechten geven rond toegang of verwijdering. Dat maakt een gesprek met een publieke AI-dienst nog niet automatisch vergelijkbaar met communicatie binnen de vertrouwensrelatie tussen cliënt en advocaat.
Met andere woorden: gemak is geen geheimhoudingsplicht.
Rechters zijn door AI-fouten een stuk minder geduldig geworden
Die strengere lijn komt ook niet uit de lucht vallen. Volgens Jones Walker zijn sinds medio 2023 meer dan 300 gevallen gedocumenteerd waarin AI-verzinsels opdoken in juridische stukken, waarvan minstens 200 alleen al in 2025. In een zaak in Wyoming bleken acht van de negen aangehaalde uitspraken niet te bestaan. In Californië kreeg een advocaat een boete van 10.000 dollar nadat 21 van de 23 citaten in een processtuk verzonnen bleken.
Dat verandert hoe rechters naar AI kijken. Het gaat al lang niet meer alleen over innovatie of efficiëntie. Het gaat over controle, vakbekwaamheid en de vraag of iemand zijn eigen werk nog echt verifieert. In de juridische wereld is dat geen detail. Het is de basis.
Dit gaat niet alleen over advocaten
Het zou een misverstand zijn om te denken dat dit alleen relevant is voor advocatenkantoren. De redenering kan net zo goed doorwerken in civiele zaken, arbeidsconflicten, echtscheidingen, aandeelhoudersruzies of toezichtsprocedures. Tyson & Mendes wijst erop dat AI-chats kunnen functioneren als tijdgestempeld bewijs van wat iemand wist, geloofde, van plan was of vreesde.
Denk aan vragen die veel mensen zonder veel aarzeling stellen: hoe formuleer ik een ontslag zonder extra risico, hoe onderhandel ik hard zonder zwakte te tonen, hoe reageer ik op een claim, wat moet ik vooral niet mailen. Dat voelt vaak als denkwerk in een veilige ruimte. In een procedure kan het juist gelezen worden als een concrete digitale spoorlijn naar intentie en kennis.
Daar zit precies het ongemak. Wat voor jou als conceptgesprek voelde, kan voor een wederpartij heel interessant materiaal zijn.
Wat dan wel bescherming biedt
Dit betekent niet dat elk gebruik van AI automatisch alle bescherming wegneemt. De analyses van Gibson Dunn en Crowell & Moring laten zien dat besloten enterprise-omgevingen met contractuele geheimhouding er anders uit kunnen zien. Dan moet de tool niet publiek zijn, prompts en outputs mogen niet voor training worden hergebruikt en de aanbieder moet geen ruime rechten houden om data met derden te delen.
Voor gewone gebruikers is de praktische les eenvoudiger. Behandel elk gesprek met een publieke chatbot alsof het later in een dossier kan opduiken. Dat klinkt misschien streng, maar sinds februari 2026 is het vooral een nuchtere vuistregel.
Bronnen en Referenties
Lees over onze redactionele standaarden →



