Resolução CNJ nº 615/2025: o que muda com a regulação da inteligência artificial no Poder Judiciário
Atualizado 16 Abr 2026
1 min. leitura

O que é a Resolução CNJ nº 615/2025
O Conselho Nacional de Justiça publicou, em 14 de março de 2025, a Resolução nº 615, que estabelece diretrizes para o desenvolvimento, a utilização e a governança de soluções de inteligência artificial no Poder Judiciário brasileiro.
A norma entrou em vigor em 14 de julho de 2025, após o prazo de 120 dias previsto em seu art. 30.
A Resolução substitui e amplia o regramento anterior, fixado pela Resolução CNJ nº 332/2020, que já tratava de ética, transparência e governança no uso de IA pela Justiça.
O avanço acelerado da inteligência artificial generativa, especialmente dos grandes modelos de linguagem (LLMs), tornou necessária a atualização do marco regulatório.
A nova norma passou por amplo processo de construção coletiva, incluindo audiência pública realizada entre 25 e 27 de setembro de 2024, contribuições de magistrados, especialistas, OAB, Ministério Público, Defensoria Pública e sociedade civil.
A aprovação ocorreu pelo Plenário do CNJ em 18 de fevereiro de 2025, no julgamento do Procedimento de Ato Normativo nº 0000563-47.2025.2.00.0000.
Dessa forma, a principal pergunta não é “o que mudou?”, mas sim:
Como isso impacta meus processos ativos e minhas futuras petições?
Fundamentos e princípios da Resolução
A Resolução nº 615/2025 organiza seus fundamentos no art. 2º e seus princípios no art. 3º, estabelecendo as bases para toda a governança da IA no Judiciário.
Fundamentos (art. 2º)
O art. 2º elenca doze fundamentos que orientam o desenvolvimento e o uso de soluções de IA pelos tribunais.
Entre os mais relevantes para a prática advocatícia, destacam-se:
- Respeito aos direitos fundamentais e aos valores democráticos.
- Centralidade da pessoa humana.
- Participação e supervisão humana em todas as etapas do ciclo de vida da IA, ressalvado o uso em atividades meramente acessórias ou procedimentais.
- Proteção de dados pessoais, acesso à informação e respeito ao segredo de justiça.
- Curadoria dos dados utilizados no desenvolvimento e no aprimoramento dos sistemas, com preferência por fontes governamentais e exigência de rastreabilidade.
Princípios (art. 3º)
O art. 3º complementa os fundamentos com oito princípios norteadores.
A norma adota expressamente os conceitos de explicabilidade, contestabilidade e auditabilidade como atributos obrigatórios dos sistemas de IA utilizados pelo Judiciário.
O princípio da supervisão humana efetiva merece destaque especial, pois a Resolução exige que essa supervisão seja periódica e adequada ao grau de risco envolvido.
Outro ponto de relevância prática é a exigência de capacitação contínua de magistrados e servidores, incluindo treinamento sobre riscos da automação e vieses algorítmicos.
Definições legais relevantes (art. 4º)
A Resolução traz dezenove definições no art. 4º, criando um vocabulário técnico-jurídico padronizado para todo o Poder Judiciário.
Entre os conceitos mais relevantes para o advogado, destacam-se:
- Sistema de inteligência artificial: sistema baseado em máquina que, com diferentes níveis de autonomia, processa dados para gerar resultados prováveis de decisão, recomendação ou conteúdo.
- Inteligência artificial generativa (IAGen): sistema de IA destinado a gerar ou modificar texto, imagens, áudio, vídeo ou código de software.
- Explicabilidade: compreensão clara de como as decisões são tomadas pela IA, sempre que tecnicamente possível.
- Contestabilidade: possibilidade de questionamento e revisão dos resultados gerados pela IA.
- Auditabilidade: capacidade de o sistema se sujeitar à avaliação dos seus algoritmos, dados e resultados.
O domínio dessas definições é indispensável para a fundamentação de eventuais impugnações processuais relacionadas ao uso de IA em decisões judiciais.
Classificação de riscos da IA no Judiciário
A Resolução adota um modelo de categorização de riscos inspirado no AI Act da União Europeia, dividindo as soluções de IA em três níveis: risco excessivo (vedado), alto risco e baixo risco.
Risco excessivo: vedações absolutas (art. 10)
O art. 10 veda expressamente o desenvolvimento e a utilização de soluções de IA que apresentem risco excessivo.
As proibições incluem:
- Sistemas que não permitam revisão humana dos resultados, ou que gerem dependência absoluta do usuário sem possibilidade de alteração.
- Sistemas que valorem traços de personalidade ou comportamento para prever o cometimento de crimes ou a probabilidade de reincidência, quando utilizados para fundamentar decisões judiciais.
- Sistemas que classifiquem ou ranqueiem pessoas com base em comportamento ou situação social para avaliar a plausibilidade de seus direitos ou testemunhos.
- Identificação biométrica para reconhecimento de emoções.
Na seara trabalhista, há vedação específica ao uso de IA para fins preditivos ou estatísticos com base em perfis pessoais na fundamentação de decisões.
Alto risco e baixo risco (art. 11)
As soluções de alto risco estão sujeitas a processos regulares de auditoria e monitoramento contínuo.
As soluções de baixo risco também devem ser monitoradas e revisadas periodicamente.
A categorização é definida por critérios do Anexo de Classificação de Riscos da Resolução, com revisão anual pelo Comitê Nacional de Inteligência Artificial do Judiciário.
O uso de IA generativa por magistrados e servidores (art. 19)
O art. 19 é, possivelmente, o dispositivo de maior impacto prático da Resolução, pois disciplina o uso de modelos de linguagem de larga escala (LLMs) e de IA generativa pelos membros do Poder Judiciário.
A norma autoriza que magistrados e servidores utilizem essas ferramentas como instrumentos de auxílio à gestão ou de apoio à decisão.
O uso deve ocorrer, preferencialmente, por meio de acesso habilitado e monitorado pelos tribunais.
Quando o tribunal não dispuser de solução corporativa, o magistrado poderá contratar solução de mercado mediante assinatura privada, desde que atendidos os requisitos da Resolução.
Condições e limites do uso
A Resolução estabelece condições específicas para o uso de IA generativa na atividade jurisdicional:
- Caráter auxiliar e complementar: É vedada a utilização como instrumento autônomo de tomada de decisões judiciais, devendo o magistrado realizar a orientação, interpretação, verificação e revisão do conteúdo gerado.
- Responsabilidade integral do magistrado: O juiz permanece integralmente responsável pelas decisões tomadas e pelas informações nelas contidas.
- Capacitação obrigatória: Os usuários devem realizar treinamento sobre melhores práticas, limitações, riscos e uso ético de LLMs antes de utilizá-los.
- Vedação quanto a dados sigilosos: É proibido o uso de IA generativa para processar documentos ou dados protegidos por segredo de justiça, salvo quando utilizada solução corporativa com padrões adequados de segurança.
- Registro de uso: Quando houver emprego de IA generativa para auxílio à redação de ato judicial, o registro automático no sistema interno do tribunal é obrigatório.
Menção no corpo da decisão (art. 19, § 6º)
A Resolução prevê que a utilização de IA generativa na elaboração de decisões poderá ser mencionada no corpo do ato, a critério do magistrado.
A norma não impõe a menção obrigatória, o que tem gerado debate doutrinário relevante sobre a transparência comunicacional com o jurisdicionado.
O registro interno no sistema do tribunal, contudo, é obrigatório em qualquer hipótese.
Comitê Nacional de Inteligência Artificial do Judiciário (art. 15)
A Resolução instituiu o Comitê Nacional de Inteligência Artificial do Judiciário (CNIAJ), órgão de composição plural com a finalidade de auxiliar o CNJ na implementação e na supervisão da norma.
A composição original previa 14 membros titulares e 13 suplentes, incluindo representantes do CNJ, da magistratura, da OAB, do Ministério Público, da Defensoria Pública e da sociedade civil.
A Resolução CNJ nº 674, de 25 de março de 2026, alterou a composição do Comitê, ampliando para três os Conselheiros do CNJ como membros titulares, incluindo o encarregado pelo tratamento de dados pessoais.
Competências do CNIAJ (art. 16)
O Comitê possui atribuições estratégicas para a governança da IA no Judiciário, incluindo:
- Revisão anual dos critérios de categorização de risco.
- Fixação de diretrizes e critérios de avaliação de risco.
- Reclassificação do grau de risco de determinada solução, de ofício ou mediante provocação.
- Padronização do letramento digital para magistrados e servidores.
- Monitoramento do cumprimento das vedações previstas no art. 10.
A designação dos integrantes foi formalizada pela Portaria CNJ nº 270, de 27 de agosto de 2025.
Medidas de governança e auditoria (arts. 12 a 14)
A Resolução impõe aos tribunais a adoção de processos internos de segurança para os sistemas de IA, estruturados em quatro eixos: transparência, prevenção de vieses, monitoramento contínuo e interoperabilidade.
Transparência e acesso institucional
O art. 12, inciso VIII, garante à OAB, à advocacia pública, ao Ministério Público e às Defensorias acesso aos relatórios de auditoria e monitoramento dos sistemas de IA ao longo de todo o ciclo de vida da solução.
O art. 5º, § 3º, assegura a essas mesmas entidades o acesso às avaliações de impacto algorítmico e o direito de peticionar ao CNIAJ para que auditorias sejam realizadas.
Avaliação de impacto algorítmico (art. 14)
As soluções de alto risco devem ser submetidas a avaliação de impacto algorítmico, que consiste em uma análise contínua dos impactos sobre os direitos fundamentais.
Essa avaliação deve identificar medidas preventivas, mitigadoras de danos e de maximização dos impactos positivos.
O sumário público da avaliação será registrado na plataforma Sinapses, podendo omitir dados sensíveis ou protegidos por propriedade intelectual.
Proteção de dados pessoais e segredo de justiça (art. 7º)
A Resolução reforça a observância da Lei Geral de Proteção de Dados (Lei nº 13.709/2018) em todas as etapas do ciclo de vida dos sistemas de IA.
Os dados utilizados no treinamento devem ser representativos da diversidade de casos judiciais e anonimizados sempre que possível.
A anonimização é obrigatória para dados sigilosos ou protegidos por segredo de justiça, conforme as melhores práticas de proteção de dados e segurança da informação.
A norma adota expressamente os princípios de privacy by design e privacy by default, exigindo que a proteção da privacidade seja incorporada desde a concepção dos sistemas.
A Plataforma Sinapses e o cadastro obrigatório (art. 24)
O art. 24 determina que todas as soluções de IA em desenvolvimento ou em uso no Poder Judiciário sejam cadastradas na Plataforma Sinapses, mantida na Plataforma Digital do Poder Judiciário Brasileiro (PDPJ-Br).
A plataforma mantém um catálogo organizado conforme a categorização de risco de cada solução.
Essa exigência garante rastreabilidade e permite que os órgãos de controle e os atores do sistema de justiça identifiquem quais ferramentas de IA estão sendo utilizadas em cada tribunal.
Impactos para a advocacia
A Resolução nº 615/2025 produz efeitos diretos sobre a atividade advocatícia em pelo menos três dimensões.
Direito à contestação algorítmica
O princípio da contestabilidade (art. 4º, XIX) confere ao advogado o fundamento normativo para impugnar resultados gerados por sistemas de IA que tenham influenciado decisões judiciais.
Essa impugnação pode abranger desde a alegação de viés discriminatório até a exigência de explicabilidade sobre os critérios utilizados pelo sistema.
Acesso a relatórios de auditoria
O acesso garantido à OAB e à advocacia pública aos relatórios de auditoria (art. 12, VIII) possibilita uma nova forma de controle externo sobre a atividade jurisdicional.
O advogado poderá fundamentar pedidos com base em dados de monitoramento dos sistemas utilizados pelo tribunal.
Nova competência profissional
A regulação exige do advogado familiaridade com conceitos de inteligência artificial, proteção de dados e governança algorítmica.
A capacidade de analisar relatórios técnicos e de formular impugnações fundamentadas em vieses ou falhas de sistemas de IA será um diferencial competitivo relevante.
Atualizações jurisprudenciais e desdobramentos recentes
A aplicação da Resolução nº 615/2025 já produziu desdobramentos relevantes na prática dos tribunais e na consolidação de entendimentos sobre o uso de IA no Judiciário.
TJDFT: alegação de uso indevido de IA em decisão judicial
O TJDFT reconheceu, de ofício, a nulidade absoluta de sentença proferida com aviso expresso de que teria sido elaborada com auxílio de inteligência artificial, entendendo haver violação aos princípios do juiz natural, da inafastabilidade da jurisdição e da indelegabilidade da função jurisdicional.
Para a Turma Recursal, a IA pode atuar apenas como ferramenta de apoio, jamais substituir a cognição e a decisão do magistrado.
Assim, a sentença foi cassada, com retorno dos autos à origem para novo julgamento.
DIREITO PROCESSUAL CIVIL. RECURSO INOMINADO. JUIZADOS ESPECIAIS CÍVEIS. SENTENÇA PROFERIDA COM AUXÍLIO DE INTELIGÊNCIA ARTIFICIAL. VÍCIO INSANÁVEL RECONHECIDO DE OFÍCIO. OFENSA AOS PRINCÍPIOS CONSTITUCIONAIS DO JUIZ NATURAL E DA INAFASTABILIDADE DA JURISDIÇÃO. INDELEGABILIDADE DA FUNÇÃO JURISDICIONAL. RESOLUÇÃO CNJ Nº 615/2025. NULIDADE ABSOLUTA. SENTENÇA CASSADA. RETORNO DOS AUTOS À ORIGEM PARA JULGAMENTO. RECURSO PREJUDICADO.
I. CASO EM EXAME
1. Recurso inominado interposto em face da sentença proferida nos autos, na qual constou aviso nos seguintes termos: “AVISO: Esta sentença foi produzida com auxílio de Inteligência Artificial. Toda a produção da IA foi conferida por ação humana, mas não é possível descartar totalmente a ocorrência de erros considerando o estado inicial da tecnologia”. O texto foi inserido no início da sentença e destacado em cor vermelha.
II. QUESTÃO EM DISCUSSÃO
2. Diante da peculiaridade do caso concreto, em sede preliminar, faz-se necessária análise dos seguintes pontos centrais: (i) verificar a regularidade da utilização de ferramentas de inteligência artificial na formação do convencimento judicial; (ii) definir se a sentença está eivada de vício de nulidade absoluta, passível de reconhecimento de ofício.
III. RAZÕES DE DECIDIR
3. A inafastabilidade da jurisdição, prevista no art. 5º, inciso XXXV, da Constituição Federal, assegura que nenhuma lesão ou ameaça a direito será excluída da apreciação do Poder Judiciário, conferindo à função jurisdicional caráter indeclinável. Esse princípio impõe ao Estado o dever de prestar tutela jurisdicional efetiva por meio de magistrado investido de autoridade pública, garantindo às partes uma resposta judicial válida e fundamentada.
4. Complementarmente, o inciso LIII do mesmo artigo consagra o princípio do juiz natural, ao dispor que “ninguém será processado nem sentenciado senão pela autoridade competente”. Essa norma veda qualquer forma de substituição do julgador legalmente instituído, incluindo aqui a transferência, ainda que parcial, da efetiva atividade decisória para agentes externos ou sistemas automatizados.
5. A Resolução CNJ nº 615/2025, que regulamenta o uso de inteligência artificial no Poder Judiciário, estabelece, em seu art. 7º, §1º, que “a atuação das ferramentas de inteligência artificial deve sempre ser de apoio à atividade jurisdicional, vedada sua utilização para a prolação autônoma de decisões judiciais”.
6. O exercício da jurisdição é, portanto, indelegável e personalíssimo, não podendo ser transferido, mediado ou compartilhado com ferramentas tecnológicas que substituam o raciocínio jurídico e a convicção judicial. Não se olvida que o auxílio na função jurisdicional é regulamentado desde o início da criação dos tribunais, por meio dos serventuários da justiça. Entretanto, a agregação da possibilidade de uso da inteligência artificial deve observar, da mesma forma, a limitação funcional e legal de sua atuação. Assim como os auxiliares humanos não podem substituir a atividade cognitiva e deliberativa final do magistrado, tampouco pode fazê-lo qualquer sistema computacional, sob pena de se violar a própria essência da jurisdição.
7. A título ilustrativo e exemplificativo, ressalte-se que seria absolutamente inconcebível (e até mesmo inimaginável) — e nula de pleno direito — uma sentença que declarasse ter sido redigida com o auxílio de servidores do cartório judicial, acrescentando que fora conferida pelo Magistrado, mas que eventuais erros poderiam decorrer do atual grau de capacitação ou formação desses serventuários. De igual forma, é absurda e estarrecedora a declaração de que “não é possível descartar totalmente a ocorrência de erros considerando o estado inicial da tecnologia”.
8. Quaisquer meios de auxílio à função jurisdicional (artificiais ou humanos), ainda que legalmente instituídos, não detêm competência para decidir, tampouco podem substituir a atividade jurisdicional do magistrado, a quem incumbe exclusivamente o dever de analisar o caso, formar convicção e proferir decisão fundamentada. A inteligência artificial, por sua natureza algorítmica e consequente ausência de discernimento jurídico, tampouco pode ocupar esse espaço, embora possa ter utilidade valiosa em relação à automação de diversos procedimentos realizados nos Gabinetes e Cartórios. No entanto, o seu uso para fins de prolação de sentença decisória final, aliado à inscrição de que eventuais erros decorrem do estado da tecnologia, viola de forma flagrante os princípios constitucionais do juiz natural (art. 5º, LIII, da CF), da inafastabilidade da jurisdição (art. 5º, XXXV, da CF) e da indelegabilidade da função jurisdicional (art. 140 do CPC), além de contrariar frontalmente as diretrizes da Resolução CNJ nº 615/2025, que vedam expressamente a substituição da atividade decisória por sistemas automatizados. A presença de tal declaração na sentença não apenas compromete sua legitimidade como ato judicial, mas a contamina por vício insanável.
9. Importante consignar que os riscos da automação não podem ser imputados ao jurisdicionado, conforme expressamente constou no aviso contido em sentença. Ao contrário, o art. 3º, inciso VIII da Resolução CNJ nº 615/2025 deixa claro que os riscos da automação e análise crítica dos resultados gerados por IA devem ser objeto de capacitação contínua aos magistrados e servidores das cortes julgadoras em respeito à responsabilidade plena do julgador quanto aos atos decisórios que profere. A eventual falibilidade dos sistemas utilizados, reconhecida na própria sentença, não pode ser imputada ao jurisdicionado ou escusada pelo Magistrado.
10. Ademais, verifica-se, com preocupação, a inversão da lógica do incremento da inteligência artificial no âmbito do Judiciário, conforme se depreende do próprio aviso inserido na sentença: “Toda a produção da IA foi conferida por ação humana”. O texto inscrito aparenta que a produção da peça decisória foi originariamente gerada por sistema automatizado, cuja intervenção humana foi reduzida à mera verificação posterior, o que subverte frontalmente o papel constitucional do magistrado. Toda decisão judicial deve ser fruto da cognição humana, fundada na análise individualizada do caso concreto e com observância plena do devido processo legal, cujo eventual auxílio da IA deve ser restrito a tarefas acessórias.
11. Ainda que se considere a possibilidade de que o aviso constante na sentença tenha sido redigido de forma imprecisa, não refletindo com exatidão a extensão do uso da ferramenta de inteligência artificial, tal circunstância não tem o condão de convalidar um ato jurisdicional formalmente viciado. A simples declaração de que “Toda a produção da IA foi conferida por ação humana, mas não é possível descartar totalmente a ocorrência de erros considerando o estado inicial da tecnologia” revela, no mínimo, ambiguidade grave quanto à autoria do pronunciamento judicial, incompatível com os princípios da segurança jurídica, da indelegabilidade da jurisdição e da necessária clareza quanto à origem e fundamentação das decisões judiciais. Diante da presença inequívoca de vício que compromete a higidez do ato decisório — seja por uso indevido da IA, seja pela incerteza gerada a respeito da autoria da sentença — impõe-se a declaração de nulidade do ato, por se tratar de nulidade absoluta, insuscetível de ratificação ou aproveitamento.
IV. DISPOSITIVO
12. Recurso prejudicado. Preliminar de vício de nulidade insanável da sentença reconhecido de ofício, nos termos do art. 485, §3º do CPC. Sentença cassada.
13. Determinado o retorno dos autos ao juízo de origem para prolação de nova sentença, em observância aos ditames da Constituição Federal e da Resolução CNJ nº 615/2025.
14. Sem em custas e honorários, considerando o recurso prejudicado.
15. A súmula de julgamento servirá de acórdão, com fulcro no art. 46 da Lei nº 9.099/95.
TJDFT, 0811182-90.2024.8.07.0016, Recurso Inominado Cível, SILVANA DA SILVA CHAVES, SEGUNDA TURMA RECURSAL, SILVANA DA SILVA CHAVES, Julgado em 16/09/2025, Publicado em 30/09/2025
Resolução CNJ nº 674/2026: primeira alteração
Em 25 de março de 2026, o CNJ publicou a Resolução nº 674, que alterou a composição do CNIAJ, ampliando a representação do Conselho de dois para três Conselheiros titulares.
A alteração incluiu, obrigatoriamente, o Conselheiro encarregado pelo tratamento de dados pessoais do CNJ, reforçando a integração entre a governança de IA e a proteção de dados.
Desafios práticos para o advogado
A implementação da Resolução nº 615/2025 impõe desafios que vão além da leitura do texto normativo.
O primeiro desafio é a opacidade dos sistemas utilizados.
Embora a Resolução exija explicabilidade e auditabilidade, a prática demonstra que nem sempre os tribunais disponibilizam informações suficientes para que o advogado compreenda como determinado sistema influenciou a decisão.
O segundo desafio é a formação técnica.
A análise de vieses algorítmicos, de relatórios de impacto e de dados de monitoramento exige conhecimento interdisciplinar que transcende a formação jurídica tradicional.
O terceiro desafio é a uniformidade na aplicação.
Os tribunais possuem realidades orçamentárias e tecnológicas distintas, o que pode gerar assimetrias na implementação da norma e dificultar a atuação do advogado que litiga em múltiplas jurisdições.
Como o JusDocs pode ajudar
A JusDocs oferece recursos que auxiliam o advogado na compreensão e na aplicação prática da Resolução CNJ nº 615/2025.
A plataforma disponibiliza modelos de petições atualizados, que podem ser adaptados para incluir fundamentação baseada nos princípios de explicabilidade, contestabilidade e auditabilidade previstos na norma.
O banco de jurisprudência integrado permite localizar decisões dos tribunais sobre o uso de inteligência artificial em processos judiciais, facilitando a construção de teses tanto para a impugnação quanto para a defesa do uso dessas ferramentas.
A ferramenta de inteligência artificial da JusDocs, o JusDog IA, opera dentro dos parâmetros de transparência e ética exigidos pelo mercado, auxiliando o advogado na elaboração de peças processuais com eficiência e segurança.
Conclusão
A Resolução CNJ nº 615/2025 representa o principal marco regulatório do uso de inteligência artificial no Poder Judiciário brasileiro.
A norma não proíbe o uso de IA, mas condiciona sua adoção a requisitos rígidos de transparência, supervisão humana, proteção de dados e classificação de riscos.
Para o advogado, o domínio dessa regulação deixou de ser opcional.
A possibilidade de contestar resultados algorítmicos, de acessar relatórios de auditoria e de impugnar decisões influenciadas por IA exige uma nova competência profissional.
O acompanhamento das diretrizes do CNIAJ e das atualizações normativas, como a Resolução nº 674/2026, será indispensável para a prática advocatícia nos próximos anos.
A tendência é que o uso de IA se expanda de forma progressiva nos tribunais, o que reforça a necessidade de o profissional do direito estar preparado para atuar nesse cenário com segurança técnica e fundamentação jurídica adequada.



