Juízes fictícios e 43 processos inventados: a IA nos tribunais brasileiros
Neste artigo
- Advogados multados, juízes fictícios e 43 processos inventados: a crise silenciosa da IA nos tribunais brasileiros
- O ganho de eficiência que ninguém recusa
- Viés automatizado: o problema que a velocidade esconde
- O vazio regulatório que o CNJ começou a preencher
- O que isso significa para quem pode parar diante de um juiz
Advogados multados, juízes fictícios e 43 processos inventados: a crise silenciosa da IA nos tribunais brasileiros
Em Santa Catarina, um recurso chegou à 6ª Câmara Civil do TJ-SC recheado de citações doutrinárias que pareciam impecáveis. Obras acadêmicas, autores consagrados, jurisprudência consolidada. O problema: nada daquilo existia. No Paraná, a situação foi ainda mais grave: um recurso para o Tribunal do Júri continha 43 processos completamente fictícios, incluindo juízes inventados pela inteligência artificial, como "Fábio André Munhoz" e "João Augusto Simões", nomes que não constam em nenhum quadro de magistrados do país.
Esses casos não são exceções. Um banco de dados internacional já rastreia mais de 1.006 petições judiciais ao redor do mundo com citações fabricadas por IA, e o número cresce semanalmente. O Brasil, com um dos judiciários mais digitalizados do planeta e mais de 80 milhões de processos em tramitação, está no centro dessa contradição: a mesma tecnologia que promete desafogar os tribunais pode estar contaminando as decisões com informações que nunca existiram.
O ganho de eficiência que ninguém recusa
Na Argentina, o assistente Prometea ajudou promotores de Buenos Aires a saltar de 130 casos por mês para quase 490, um aumento que exigiria triplicar o quadro de servidores. No Brasil, o sistema VICTOR, desenvolvido pelo STF em parceria com a Universidade de Brasília, reduziu o tempo de avaliação de recursos extraordinários de 44 minutos por caso para segundos. A China inaugurou em 2024 o primeiro tribunal a integrar sistematicamente um modelo de linguagem ao raciocínio judicial, treinado com dois trilhões de caracteres de textos legais.
São sistemas operacionais moldando decisões reais que afetam liberdade, patrimônio e direitos fundamentais. O argumento da eficiência está consolidado: a IA reduz filas. Só que eficiência é uma métrica perigosa quando o que está em jogo é a liberdade de alguém.
Viés automatizado: o problema que a velocidade esconde
Quando pesquisadores do PMC analisaram viés algorítmico em decisões judiciais, o resultado deveria preocupar qualquer pessoa que já tenha pisado num tribunal: os dados históricos usados para treinar esses sistemas já carregam décadas de viés racial, socioeconômico e geográfico documentado. Treinar IA com decisões enviesadas não elimina o preconceito, apenas o automatiza em escala e o reveste de uma aparência de objetividade científica.
A Holanda aprendeu isso na prática. O sistema SyRI, criado para detectar fraude em benefícios sociais, foi derrubado por um tribunal holandês por violar a Convenção Europeia de Direitos Humanos. O sistema mirava desproporcionalmente bairros de baixa renda com alta concentração de imigrantes. A tecnologia funcionava exatamente como projetada; o projeto é que era o problema.
No Brasil, o risco é concreto. Num país onde a cor da pele já influencia estatisticamente o tempo de prisão provisória e a severidade das sentenças, alimentar algoritmos com esse histórico pode cristalizar desigualdades que o próprio Judiciário deveria combater.
O vazio regulatório que o CNJ começou a preencher
A UNESCO publicou suas primeiras diretrizes para IA em tribunais em 2025, reunindo contribuições de 41 países. O diagnóstico confirmou o que operadores do Direito já sabiam: a maioria das jurisdições não tem regras vinculantes para o uso judicial de IA.
A França é o caso mais extremo. Desde 2019, o Artigo 33 da Lei de Reforma da Justiça criminaliza o uso de IA para analisar ou prever decisões judiciais, com penas de até cinco anos de prisão. O Brasil optou por um caminho intermediário: a Resolução CNJ nº 615/2025, em vigor desde julho de 2025, estabelece governança, classificação de risco e auditorias obrigatórias para ferramentas de IA no Judiciário. Determina supervisão humana obrigatória e deixa claro que a IA não substitui o juiz.
Acontece que a resolução chegou depois que os tribunais já estavam usando a tecnologia. Em março de 2026, o TCE-SP alertou publicamente para o fenômeno da "alucinação jurídica" após identificar referências inexistentes em peças processuais. O TRT-MG multou advogado por citar súmula do TST que não existe. A regulamentação corre atrás de uma realidade que avança mais rápido.
O que isso significa para quem pode parar diante de um juiz
A distância entre o que a IA consegue fazer nos tribunais e a capacidade de governá-la não está diminuindo. Cada mês, novos sistemas entram em operação enquanto reguladores redigem documentos de posicionamento.
Se você já assumiu que uma decisão judicial refletia o raciocínio cuidadoso de um ser humano, essa premissa agora exige verificação. Pesquisadores de Cambridge alertam que a confiança acrítica em IA generativa corrói o raciocínio jurídico profundo que depende de leitura atenta e pensamento analógico: exatamente as habilidades que distinguem um julgamento de um cálculo.
A 1.007ª petição com citações fabricadas está sendo redigida neste momento em algum lugar do mundo. A pergunta é se o juiz que vai analisá-la saberá a diferença, e se alguém exige que ele verifique.
Fontes e Referências
- AI Hallucination Cases Database — Over 1,006 legal filings worldwide with fabricated AI citations
- OECD — Argentina Prometea: 130 to 490 cases/month
- PMC — AI systems inherit decades of bias from historical judicial data
- Cambridge — Uncritical AI reliance erodes deep legal reasoning
- Artificial Lawyer — France Article 33 criminalizes AI judicial analytics
Conheça nossos padrões editoriais →



