STJ Rejeita Relatório de IA como Prova Penal: o que decidiu a Quinta Turma no HC 1.059.475/SP e os impactos na prática criminal
Atualizado 23 Abr 2026
1 min. leitura

O primeiro precedente do STJ sobre IA generativa como meio de prova
A Quinta Turma do Superior Tribunal de Justiça firmou, em 7 de abril de 2026, um marco inédito no direito processual penal brasileiro.
No julgamento do HC 1.059.475/SP, de relatoria do ministro Reynaldo Soares da Fonseca, o colegiado decidiu, por unanimidade, que um relatório produzido por inteligência artificial generativa não pode ser utilizado como prova em processo criminal.
A decisão ultrapassa o caso concreto e inaugura uma diretriz jurisprudencial sobre os limites do uso de ferramentas tecnológicas na persecução penal.
O acórdão foi publicado no Diário da Justiça Eletrônico em 14 de abril de 2026.
Para o advogado criminalista, o precedente representa uma ferramenta concreta de impugnação de provas digitais e um parâmetro seguro para a construção de teses defensivas.
Dessa forma, a principal pergunta não é “o que mudou?”, mas sim:
Como isso pode impactar meus processos em curso e minhas futuras petições?
O caso concreto: injúria racial e a contraposição entre perícia oficial e relatório de IA
O processo teve origem em uma denúncia por injúria racial supostamente ocorrida após uma partida de futebol entre Mirassol e Palmeiras, na cidade de Mirassol, interior de São Paulo, em fevereiro de 2025.
O acusado teria dirigido a expressão "macaco" a um segurança do Palmeiras durante uma discussão no estádio.
O vídeo que registrou o episódio foi encaminhado ao Instituto de Criminalística do Estado de São Paulo para análise pericial oficial.
O laudo pericial, elaborado com base em técnicas de fonética forense e acústica da fala, concluiu que não era possível identificar com segurança a presença do termo apontado na acusação.
Os peritos oficiais não encontraram traços articulatórios compatíveis com a palavra indicada pela denúncia.
A produção do relatório por ferramentas de IA
Diante do resultado inconclusivo da perícia oficial, investigadores da Polícia Civil de São Paulo recorreram às ferramentas de inteligência artificial generativa Gemini e Perplexity para analisar o conteúdo do mesmo vídeo.
O relatório produzido com o auxílio dessas ferramentas indicou, em sentido oposto ao laudo oficial, que a expressão ofensiva teria sido pronunciada.
Com base nesse documento, o Ministério Público de São Paulo ofereceu a denúncia em agosto de 2025.
O acusado impetrou habeas corpus perante o Tribunal de Justiça de São Paulo, que denegou a ordem e determinou o prosseguimento do processo.
A defesa, então, impetrou novo habeas corpus perante o STJ.
Os fundamentos do voto do ministro Reynaldo Soares da Fonseca
O relator deslocou o debate para um terreno que transcende as discussões tradicionais sobre licitude da prova e cadeia de custódia.
Para o ministro, a questão central não dizia respeito à forma de obtenção do relatório, mas à sua capacidade de servir como elemento confiável para sustentar uma acusação criminal.
A exigência de confiabilidade epistêmica da prova penal
Reynaldo Soares da Fonseca afirmou que a prova no processo penal deve ser apta a permitir a construção de inferências lógicas e racionais sobre os fatos.
O ordenamento jurídico, segundo o ministro, exige não apenas licitude, mas também confiabilidade na formação dos elementos probatórios.
Nesse sentido, concluiu que o relatório produzido por inteligência artificial generativa não possui o que denominou de "confiabilidade epistêmica mínima" para ser admitido como prova.
O fenômeno da alucinação e as limitações técnicas da IA generativa
O ministro identificou expressamente o problema da alucinação como risco inerente à utilização da IA generativa.
Trata-se da produção de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade.
O sistema não sinaliza a inconsistência ao usuário, o que torna o risco especialmente grave quando o output é utilizado como fundamento de uma acusação criminal.
Reynaldo Soares da Fonseca ressaltou que os sistemas de IA generativa operam com base em probabilidades e padrões estatísticos.
Isso os torna suscetíveis a erros que se apresentam com aparência de verdade.
Além disso, apontou uma inadequação técnica específica no caso concreto.
As ferramentas utilizadas (Gemini e Perplexity) processam textos, e não sons, o que as torna inaptas para a realização de análise fonética de áudios.
A distinção entre prova pericial e relatório de IA
O relator foi enfático ao afirmar que relatórios produzidos por inteligência artificial generativa não se qualificam como prova pericial.
A perícia exige metodologia científica verificável, auditabilidade e reprodutibilidade, características ausentes em outputs de sistemas generativos.
O ministro também destacou que, embora o magistrado não esteja vinculado ao laudo pericial (art. 182 do CPP), o afastamento das conclusões da perícia oficial exige fundamentação técnica idônea.
Substituir o juízo técnico da perícia por conclusões oriundas de ferramenta de IA, sem validação científica, compromete a integridade da decisão judicial.
O resultado do julgamento
A Quinta Turma, por unanimidade, determinou a exclusão do relatório produzido com inteligência artificial dos autos do processo.
O colegiado também estabeleceu que o magistrado de primeira instância deve proferir nova decisão sobre a admissibilidade da denúncia, sem considerar o documento excluído.
Como a acusação estava substancialmente baseada no relatório de IA, a Turma entendeu que não havia justa causa para o prosseguimento da ação penal.
O trancamento do processo foi determinado, sem prejuízo de que nova denúncia possa ser oferecida com base em provas dotadas de confiabilidade.
O marco regulatório da IA no Judiciário e sua relação com o precedente
A decisão da Quinta Turma se insere em um cenário normativo em construção sobre o uso da inteligência artificial no sistema de Justiça brasileiro.
Resolução CNJ nº 332/2020 e sua atualização pela Resolução nº 615/2025
O Conselho Nacional de Justiça editou, em 2020, a Resolução nº 332, que estabeleceu as primeiras diretrizes sobre ética, transparência e governança no uso de IA pelo Poder Judiciário.
Em fevereiro de 2025, o Plenário do CNJ aprovou a Resolução nº 615, que atualizou a norma anterior para acompanhar a evolução das tecnologias de IA generativa.
A nova resolução reforça a obrigatoriedade de supervisão humana, classifica os sistemas de IA conforme o nível de risco e institui o Comitê Nacional de Inteligência Artificial do Judiciário.
Entre suas diretrizes, destaca-se a exigência de auditabilidade e rastreabilidade das ferramentas utilizadas, bem como a garantia de que a IA não substitua a atuação humana na atividade jurisdicional.
O art. 159 do Código de Processo Penal
O art. 159 do CPP dispõe que os exames de corpo de delito e outras perícias devem ser realizados por perito oficial, portador de diploma de curso superior.
Esse dispositivo reforça o entendimento firmado no HC 1.059.475/SP.
A análise de áudio de vídeo constitui atividade técnica que demanda formação especializada e método científico, não podendo ser delegada a ferramentas algorítmicas desprovidas de validação.
Atualizações jurisprudenciais e precedentes relevantes
Decisões anteriores sobre prova digital e cadeia de custódia no STJ
A jurisprudência das 5ª e 6ª Turmas do STJ já vinha consolidando uma posição rigorosa sobre a exigência de confiabilidade e rastreabilidade da prova digital.
No AgRg no RHC 143.169/RJ, o tribunal assentou que o Estado-acusação deve comprovar a origem, a integridade e a confiabilidade das fontes de prova apresentadas.
Não se admite a presunção de autenticidade quando descumpridos os procedimentos da cadeia de custódia.
O HC 1.059.475/SP vai além dessas discussões ao criar uma categoria autônoma de inadmissibilidade.
Trata-se da ausência de confiabilidade epistêmica mínima como vício que antecede a própria análise de cadeia de custódia.
Precedentes sobre reconhecimento de limitações tecnológicas
O precedente também dialoga com a jurisprudência que já vinha sancionando o uso inadequado de ferramentas tecnológicas no processo.
Em 2024, o Tribunal Regional do Trabalho da 18ª Região aplicou multa por litigância de má-fé a parte que utilizou texto gerado por IA em petição judicial.
A sanção decorreu da ausência de verificação sobre a veracidade das informações produzidas pela ferramenta.
O HC 1.059.475/SP amplia essa tendência ao estabelecer que o problema não se limita às partes.
O próprio aparato estatal de investigação não pode se valer de ferramentas de IA sem validação técnica para sustentar acusações criminais.
Impactos práticos para o advogado criminalista
Teses defensivas e impugnação de provas
O precedente abre caminho para a construção de teses defensivas específicas em casos que envolvam provas digitais produzidas ou analisadas por sistemas de inteligência artificial.
O advogado pode arguir, com base no HC 1.059.475/SP, as seguintes linhas de impugnação:
- Ausência de confiabilidade epistêmica mínima de relatórios produzidos por IA generativa, com pedido de exclusão dos autos.
- Inadequação técnica da ferramenta utilizada para a finalidade probatória pretendida, especialmente quando a IA processa linguagem textual e não dados sensoriais (áudio, imagem).
- Prevalência da perícia oficial sobre documentos produzidos por algoritmos sem metodologia científica verificável, auditável e reprodutível.
- Violação ao contraditório e à ampla defesa, diante da impossibilidade de a parte adversa auditar os parâmetros, prompts e dados de treinamento utilizados pela ferramenta.
Habeas corpus e trancamento da ação penal
Nos casos em que a denúncia esteja substancialmente amparada em prova produzida por IA, o advogado pode postular o trancamento da ação penal por ausência de justa causa, utilizando como paradigma o HC 1.059.475/SP.
A tese é especialmente robusta quando a perícia oficial já tiver se manifestado em sentido contrário ao relatório algorítmico.
Atenção às investigações em curso
O precedente impõe ao advogado o dever de atenção redobrada durante a fase de inquérito policial.
É recomendável verificar se a autoridade policial utilizou ferramentas de IA para produzir relatórios ou análises que integrem os autos da investigação.
Quando identificada essa prática, a impugnação deve ser imediata, preferencialmente por meio de habeas corpus, antes mesmo do oferecimento da denúncia.
Desdobramentos futuros e pontos de atenção
O HC 1.059.475/SP é o primeiro passo de uma construção jurisprudencial que tende a se aprofundar nos próximos anos.
O que ainda não foi decidido
O precedente não estabeleceu, de forma geral, que a inteligência artificial é inadmissível como instrumento de apoio à investigação.
A Quinta Turma se limitou a declarar que relatórios produzidos por IA generativa, sem validação técnico-científica e sem supervisão humana qualificada, não podem servir como prova.
Permanece em aberto a discussão sobre o uso de IA como ferramenta auxiliar da perícia oficial, desde que submetida ao crivo metodológico e à supervisão de perito habilitado.
A necessidade de regulamentação específica
O caso evidencia uma lacuna normativa relevante.
Não existe, até o momento, legislação federal que discipline de forma específica o uso de inteligência artificial como meio de prova no processo penal.
A Resolução CNJ nº 615/2025 trata do uso de IA pelo Judiciário, mas não abrange a atividade investigativa conduzida pela polícia judiciária.
Eventual regulamentação deverá enfrentar, no mínimo, os seguintes aspectos:
- Requisitos de transparência e auditabilidade dos sistemas de IA utilizados na persecução penal.
- Exigência de supervisão humana qualificada para validação dos outputs algorítmicos.
- Critérios para admissibilidade da prova digital produzida com auxílio de IA, com observância do contraditório e da ampla defesa.
- Responsabilização de agentes públicos que utilizem ferramentas de IA em substituição à perícia oficial.
Como o JusDocs pode ajudar
O JusDocs oferece modelos de petições atualizados e fundamentados na jurisprudência mais recente do STJ, incluindo modelos de habeas corpus, respostas à acusação e recursos em matéria criminal.
Os assinantes têm acesso a peças que podem ser adaptadas para casos que envolvam impugnação de provas digitais e discussões sobre admissibilidade de elementos probatórios produzidos por inteligência artificial.
Além disso, a plataforma disponibiliza fluxogramas processuais e ferramentas de inteligência artificial próprias, como o JusDog IA, que auxiliam o advogado na construção de estratégias processuais fundamentadas.
Conclusão
O julgamento do HC 1.059.475/SP pela Quinta Turma do STJ representa um divisor de águas na interseção entre tecnologia e processo penal no Brasil.
Ao exigir confiabilidade epistêmica mínima dos elementos probatórios, o tribunal reafirmou que a prova penal não pode ser construída sobre fundamentos algorítmicos opacos e insuscetíveis de verificação.
O precedente não é contrário à tecnologia, mas à sua utilização sem método, sem controle e sem supervisão humana.
Para o advogado, trata-se de um instrumento poderoso de defesa técnica, que deve ser incorporado imediatamente ao repertório de teses e estratégias processuais.



