Seus chats com IA podem virar prova em tribunal
Muita gente já fez esse movimento quase no automático: abriu o ChatGPT, o Claude ou o Gemini para organizar uma angústia jurídica, testar uma estratégia de negociação ou pedir ajuda para redigir um texto delicado. Parece uma conversa privada. Só que, do ponto de vista legal, essa sensação pode ser enganosa. O que você digita não fica em um caderno seu, guardado na gaveta. Fica em servidores de terceiros, regido por termos de uso que quase ninguém lê.
O tribunal disse em voz alta o que muita gente preferia ignorar
Em fevereiro de 2026, o juiz federal Jed Rakoff, da corte do Distrito Sul de Nova York, consolidou por escrito uma conclusão que tende a repercutir muito além dos EUA. Como resumem a Gibson Dunn e a Crowell & Moring, documentos produzidos por um réu com a ajuda do Claude não foram protegidos nem pelo sigilo advogado-cliente nem pela doutrina do work product, que resguarda materiais preparados para a defesa.
O caso envolvia Bradley Heppner, ex-CEO que recorreu ao Claude depois de saber que era alvo de uma investigação com júri federal. A defesa tentou sustentar que aqueles materiais serviam para organizar fatos e facilitar a comunicação com os advogados. A corte rejeitou esse raciocínio por três motivos diretos: a IA não é advogada, o usuário não estava buscando aconselhamento jurídico de um profissional habilitado e, sobretudo, a troca nem sequer era confidencial desde o início.
O sigilo pode acabar no momento em que você cola o texto
É esse terceiro ponto que muda o jogo. A decisão enfatiza que, ao inserir informações em uma ferramenta pública, o usuário as compartilha com uma terceira parte. E, em direito, compartilhar conteúdo sensível com terceiros costuma destruir a expectativa de confidencialidade necessária para sustentar privilégio.
A leitura da corte segue a mesma linha destacada pela Ward and Smith: o problema não começa quando a conversa é pedida em juízo. Ele começa antes, no instante em que um fato potencialmente protegido é copiado para um chatbot cujo operador se reserva direitos sobre retenção, tratamento e eventual divulgação de dados. Em termos práticos, isso transforma o que parecia um rascunho íntimo em algo muito mais próximo de uma comunicação feita fora do círculo protegido da relação com o advogado.
Essa distinção incomoda porque contraria um hábito já banalizado. No Brasil, não é raro usar IA para “tirar uma dúvida” contratual, testar uma resposta a uma notificação, pedir um resumo de tese ou até montar perguntas para uma reunião com o jurídico. Só que conveniência não é confidencialidade.
A onda de citações falsas endureceu a paciência dos juízes
O contexto também ajuda a explicar por que os tribunais estão menos tolerantes. Segundo a Jones Walker, mais de 300 casos de alucinações jurídicas produzidas por IA já foram documentados desde meados de 2023, com pelo menos 200 apenas em 2025. Em um caso no Wyoming, oito das nove decisões citadas simplesmente não existiam. Na Califórnia, um advogado foi multado em US$ 10 mil depois que 21 de 23 trechos de um recurso se mostraram fabricados.
A consequência é previsível: juízes passaram a tratar o uso descuidado de IA menos como novidade tecnológica e mais como falha profissional básica. Em alguns casos, sanções financeiras já não parecem suficientes para dissuadir a conduta. O recado institucional é que a responsabilidade continua sendo humana, mesmo quando o erro veio embrulhado em texto fluente.
O risco não para nos escritórios de advocacia
Seria confortável imaginar que essa discussão interessa só a advogados. Não interessa. A lógica da decisão alcança qualquer pessoa que use IA para pensar em voz alta sobre um conflito. Se registros de conversas com chatbot podem ser relevantes em um processo criminal, também podem ser úteis em disputas cíveis, trabalhistas, societárias, regulatórias e até familiares.
A Tyson & Mendes chama atenção para esse ponto com precisão: chats com IA podem funcionar como registro datado do que uma parte sabia, acreditava, pretendia ou temia em determinado momento. Isso vale para discussões sobre danos, estratégia empresarial, intenção contratual, reação a uma crise e versões preliminares de fatos. Em um litígio, esse tipo de trilha pode ser ouro probatório.
Pense nas perguntas que muita gente faz sem refletir: como renegociar um contrato sem admitir fraqueza, como reagir a uma cobrança tributária, como demitir alguém minimizando risco, como explicar um problema médico sem deixar rastros no histórico de buscas. Cada uma dessas interações pode virar uma peça de contexto sobre crenças, conhecimento e intenção.
O que protege de verdade, e o que não protege
Há um detalhe importante. A decisão não significa que todo uso de IA destrói necessariamente qualquer proteção. A própria Gibson Dunn observa que ambientes corporativos fechados, com contratos robustos de confidencialidade, podem reduzir bastante esse risco. Para isso, a ferramenta precisa ser não pública, não pode reutilizar prompts e respostas para treinamento e não deve se reservar o direito de compartilhar dados com terceiros.
Também convém separar duas coisas que muita gente mistura: proteção de dados e privilégio jurídico. Leis de privacidade podem limitar coleta, exigir transparência e criar direitos sobre tratamento de informações. Elas não criam, por si sós, um escudo equivalente ao sigilo profissional.
Na prática, a regra prudente ficou mais simples. Trate cada conversa com IA como algo que poderia ser lido por terceiros em um contexto adversarial. Se você não colocaria aquela informação em um e-mail informal para um colega, não deveria despejá-la em um chatbot público. O que a decisão de Rakoff fez não foi inventar um risco novo. Foi apenas retirar a última camada de ilusão em torno de um risco que já estava ali.
Fontes e Referências
Conheça nossos padrões editoriais →



