Imagine abrir uma decisão judicial oficial e encontrar, no meio do texto, uma instrução clara para um sistema de inteligência artificial: 'Melhore a exposição e fundamentação deste parágrafo'. Isso não é ficção científica, mas realidade em um caso chocante no Tribunal de Justiça de Minas Gerais (TJMG). Um desembargador esqueceu de apagar o prompt de IA em seu voto, expondo o uso da ferramenta em um julgamento sensível que absolveu um homem de 35 anos acusado de estupro de vulnerável contra uma menina de 12 anos.
Esse episódio, ocorrido em fevereiro de 2026, não só gerou indignação pública, mas também acionou mecanismos de controle no sistema judiciário brasileiro. O Conselho Nacional de Justiça (CNJ) abriu um Pedido de Providências para investigar o caso, enquanto o TJMG instaurou procedimento administrativo. O incidente destaca os dilemas éticos e técnicos do uso de IA generativa em decisões judiciais, um tema que ganha urgência à medida que ferramentas como ChatGPT e similares se infiltram em profissões tradicionais.
Neste artigo, exploraremos em profundidade o que aconteceu, o contexto legal e tecnológico por trás, as implicações para o Judiciário e a sociedade, exemplos globais semelhantes e as tendências futuras. Analisaremos como esse 'prompt esquecido' pode ser o sintoma de uma adoção precipitada de IA, sem as devidas salvaguardas, e o que isso significa para profissionais de tecnologia e direito no Brasil.
Dados preliminares do CNJ indicam que, desde a Resolução 615/2024, que regula o uso de IA no Judiciário, centenas de tribunais brasileiros têm adotado ferramentas generativas para auxiliar na redação de textos. No entanto, casos como esse revelam que a supervisão humana ainda é falha, com potencial para comprometer a imparcialidade e a credibilidade das decisões. Estatísticas globais mostram que 40% dos juízes em países desenvolvidos já usam IA, mas incidentes semelhantes ocorrem, elevando debates sobre regulação.
O caso centralizou-se na 9ª Câmara Criminal do TJMG. O réu, preso em flagrante em 8 de abril de 2024 em Indianópolis, no Triângulo Mineiro, foi inicialmente condenado a 9 anos e 4 meses de prisão por estupro de vulnerável, crime previsto no Código Penal para atos sexuais com menores de 14 anos, presumindo-se a violência independentemente de consentimento.
O relator, desembargador Magid Nauef Láuar, votou pela absolvição, argumentando a existência de um 'vínculo afetivo consensual', com anuência prévia dos pais da vítima e formação de 'família'. O acórdão, no entanto, continha o prompt de IA: uma instrução para a ferramenta melhorar a 'exposição e fundamentação' de um parágrafo específico, provavelmente para gerar uma versão resumida ou aprimorada do texto.
Esse erro técnico transformou o julgamento em notícia nacional, com o Ministério Público de Minas Gerais recorrendo e alegando 'grooming' – aliciamento progressivo da menor. A decisão contraria súmulas do STJ e precedentes do STF, que rejeitam teses de 'união estável' em casos de vulneráveis.
Historicamente, o uso de tecnologia no Judiciário brasileiro evoluiu de sistemas de automação processual nos anos 2000 para IA generativa pós-2023. A Resolução 615 do CNJ permite IA como auxiliar, mas exige transparência, revisão humana e proíbe decisões automatizadas em casos sensíveis. No TJMG, ferramentas como essas visam agilizar a sobrecarga de processos – mais de 100 milhões pendentes no país.
Tecnicamente, um prompt é a instrução natural language dada a modelos como GPT para gerar texto. No contexto judicial, pode resumir autos, sugerir fundamentações ou redigir minutas. Porém, IAs treinadas em dados públicos podem herdar vieses, como interpretações culturais sobre 'relações consensuais', exacerbando erros em casos de gênero e infância.
As consequências imediatas foram rápidas. O CNJ, sob ministro Mauro Campbell Marques, determinou que TJMG e o desembargador prestem informações em 5 dias. O TJMG abriu investigação interna por 'falta funcional'. Publicamente, OAB, MDHC e ativistas criticaram, reacendendo debates sobre proteção integral à criança pelo ECA.
Mais amplo, o incidente questiona a responsabilidade: quem responde por erros de IA? O juiz por supervisão falha ou o sistema? No Brasil, isso afeta a confiança pública no Judiciário, já baixa segundo pesquisas do Datafolha, e abre precedentes para recursos por vício processual.
Exemplos internacionais abundam. Em 2023, um juiz colombiano usou ChatGPT em sentença, citando casos fictícios, levando a cassação. Nos EUA, o caso Mata v. Avianca viu IA inventar precedentes, resultando em sanções. Na China, tribunais usam IA para 90% de casos civis simples, mas com humanos em revisão estrita.
No Brasil, o STF discute guidelines para IA, inspirados na UE AI Act, que classifica aplicações judiciais como 'alto risco'. Empresas como Microsoft e Google oferecem ferramentas jurídicas (Copilot for Legal), mas alertam sobre alucinações – gerações falsas.
Especialistas em direito digital, como professores da FGV, enfatizam que IA deve ser 'black box' transparente: auditar prompts, logs e outputs. No caso TJMG, o prompt visível sugere revisão superficial, potencial violação ética do Código de Ética da Magistratura.
Análises técnicas revelam riscos de vieses em LLMs treinados em jurisprudência enviesada, onde decisões antigas relativizavam estupro. Para profissionais de TI, isso reforça a necessidade de soluções customizadas, com fine-tuning em leis brasileiras.
Tendências apontam para adoção massiva: CNJ planeja plataforma nacional de IA em 2026. Globalmente, Gartner prevê 80% dos tribunais usando IA até 2028. No Brasil, startups como Deep Legal desenvolvem ferramentas locais, focadas em conformidade.
Empresas tech devem preparar: compliance com Resolução 615, treinamentos em prompt engineering para advogados e auditorias. Para o mercado brasileiro, oportunidade em IA ética judicial.
Outros casos no Brasil incluem uso de IA em varas de família no TJSP para triagem, sem prompts expostos. Internacionalmente, Singapura usa IA para previsão de sentenças com 85% acurácia.
À frente, esperamos regulação mais rígida, com certificação de ferramentas e penalidades por mau uso. O episódio TJMG acelera isso.
Em síntese, o prompt esquecido no voto do TJMG expõe fragilidades na integração de IA ao Judiciário, agravadas por uma decisão controversa de absolvição em estupro de vulnerável.
Olhando o futuro, o equilíbrio entre eficiência e ética é crucial. Tribunais precisarão de frameworks robustos, com humanos no loop decisório.
Para o Brasil, implica maior escrutínio público e investimento em capacitação. Profissionais de tech terão papel chave em desenvolver IA confiável.
Reflita: como garantir que a IA sirva à justiça, não a subverta? Compartilhe nos comentários sua visão sobre regulação de IA no direito brasileiro.