Em decisão de 4 de agosto de 2026 (HC nº 1.059.475), a Quinta Turma do Superior Tribunal de Justiça firmou um marco prático e simbólico: relatórios produzidos por sistemas de IA generativa foram considerados incapazes, por si só, de servir como prova decisiva em processo penal. A Corte determinou a exclusão do relatório automatizado dos autos, enfatizando a ausência de garantias mínimas de confiabilidade técnica e controle epistemológico — uma sinalização clara de que avanços tecnológicos não podem suplantar requisitos fundamentais do direito probatório.

Contexto e fundamentos

O caso tratava de perícia de áudio e análise de autoria baseada em algoritmo generativo. O STJ entendeu que a ferramenta, embora útil como apoio investigativo, não observou padrões de validação técnica aceitos, tampouco permitiu verificação cruzada pelos peritos humanos. Há menção expressa ao risco conhecido como “alucinação” em modelos generativos: resultados aparentemente plausíveis, mas sem lastro empírico verificável. A Corte destacou ainda a violação de princípios processuais — ampla defesa, contraditório e o dever de fundamentação das decisões — quando um relatório automático é inserido nos autos sem documentação do método, auditoria independente e cadeia de custódia.

O julgamento insere-se numa tendência global de cautela: tribunais e órgãos reguladores vêm exigindo transparência, auditabilidade e certificação de ferramentas automatizadas que impliquem avaliações técnicas ou decisões que afetem direitos fundamentais.

Impactos práticos para a rotina forense e investigativa

  1. Para investigadores e promotores: a decisão não proíbe o uso de IAs em investigação, mas restringe seu valor probatório se empregadas como “caixa-preta”. Relatórios automáticos podem orientar linhas de pesquisa, desde que a acusação complemente com perícia humana, documentos que detalhem o algoritmo, parâmetros usados, amostras de validação e possibilidade de contraprova.
  2. Para a defesa: nova arma processual. Advogados terão terreno fértil para impugnar provas baseadas em modelos não auditáveis, requerer perícias independentes e pleitear a exclusão de elementos que não atendam aos requisitos de confiabilidade científica.
  3. Para peritos e laboratórios: pressão por padronização. Exige-se certificação de métodos, formação continuada, protocolos de validação e registros que assegurem reprodutibilidade dos resultados.

Consequências regulatórias e legislativas

A decisão do STJ aponta para a necessidade de regulação técnica e processual da IA. Tramitam no país projetos para criar marcos de transparência algorítmica e regras de responsabilidade; porém, o Judiciário já começa a desenhar limites práticos. Há espaço para normas que obriguem documentação completa dos modelos utilizados em procedimentos investigatórios, obriguem “explicabilidade” mínima e definam parâmetros de homologação técnica por órgãos periciais oficiais.

Repercussão social e de política criminal A exclusão de provas por insuficiência técnica preserva garantias individuais e reduz o risco de condenações baseadas em pseudo-ciência. Por outro lado, há preocupação legítima de que excesso de rigidez possa retardar investigações ou subestimar ferramentas valiosas. O equilíbrio passa por critérios objetivos: quando a tecnologia acrescenta e é auditável, deve ser admitida; quando atua como caixa-preta, não pode substituir o crivo humano.

Recomendações práticas para leitores do direitoce.com.br (advogados, promotores, peritos e operadores do direito no Ceará)

  • Advogados de defesa: alerte para a necessidade de impugnar relatórios gerados por IA sem documentação técnica. Requeira a apresentação de código-fonte, parâmetros de treino, bancos de dados usados e protocolos de validação, além da realização de perícia independente. Use precedentes do STJ para subsidiar habeas corpus e pedidos de nulidade probatória.
  • Ministério Público e polícia: formalizem protocolos internos de uso de IA. Registrem logs, critérios de interpretação, e completem todas as conclusões automatizadas com perícia humana qualificada. Instituam rotinas de validação antes de ofertar denúncia com base em relatório automatizado.
  • Peritos e laboratórios forenses: busquem certificações e publiquem rotinas de validação. Desenvolvam relatórios periciais que contemplem limitações, margem de erro e condições de replicação, facilitando o contraditório.
  • Legisladores e reguladores locais: aproveitem a decisão para impulsionar normativas estaduais/municipais sobre uso de ferramentas automatizadas em segurança pública, com parcerias entre universidades e órgãos periciais para criar padrões técnicos.

A decisão do STJ não é um freio ao progresso técnico, mas um chamado à responsabilidade: tecnologia sem transparência é prova frágil. Para o Ceará, onde a inovação em segurança pública e forense avança, o desafio é claro — incorporar IA com disciplina científica e garantias processuais, garantindo que a busca por eficiência não sacrifique direitos fundamentais. A palavra-chave para a próxima etapa é governança: técnica, jurídica e democrática.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.