
Em 18 de fevereiro de 2025, o Conselho Nacional de Justiça (CNJ) aprovou uma nova resolução que estabelece diretrizes para o uso da inteligência artificial no Poder Judiciário. O normativo tem como objetivo disciplinar a aplicação dessa tecnologia, prevendo princípios como transparência, supervisão e governança. No entanto, sua implementação levanta questões relevantes, especialmente quanto à proteção de direitos fundamentais, à segurança jurídica e às prerrogativas da advocacia.
Ainda que a norma traga avanços ao reconhecer a necessidade de auditoria, transparência e supervisão humana, há lacunas que merecem atenção. Um ponto crítico é a falta de um mecanismo claro para contestação de decisões judiciais influenciadas por inteligência artificial. O artigo 3º da resolução menciona a contestabilidade como princípio, mas não estabelece procedimentos concretos para que advogados e partes questionem a influência da IA em uma decisão específica. A ausência desse mecanismo pode limitar o direito ao contraditório e à ampla defesa.
Outro aspecto preocupante está na permissão do uso de sistemas privados de inteligência artificial, sem critérios uniformes e rigorosos de proteção para dados sigilosos. O artigo 19, por exemplo, permite que magistrados e servidores utilizem modelos de linguagem de larga escala (LLMs) disponibilizados na internet para auxílio na redação de decisões e outras atividades, desde que sigam algumas diretrizes. No entanto, não há uma exigência expressa de que esses modelos sejam hospedados em ambientes seguros controlados pelo Judiciário, o que pode gerar riscos à confidencialidade dos dados processuais.
Além disso, a regulamentação do CNJ não determina auditorias obrigatórias para todos os sistemas utilizados no Judiciário. A norma prevê a necessidade de avaliações de impacto algorítmico para soluções classificadas como de "alto risco", mas não especifica com que frequência essas avaliações devem ser realizadas, nem quem será responsável por fiscalizá-las. Isso pode resultar em situações em que um sistema de IA potencialmente enviesado continue sendo utilizado sem revisão adequada.
O impacto dessas fragilidades pode ser ilustrado com exemplos concretos. Em 2023, nos Estados Unidos, um erro em um algoritmo utilizado no sistema de justiça penal da Pensilvânia levou à recomendação incorreta de penas mais severas para determinados réus, devido a um viés no treinamento do modelo. O caso só foi descoberto após análises independentes realizadas por acadêmicos e organizações civis, o que evidencia a necessidade de transparência e supervisão contínua.
A experiência internacional também mostra que o uso da IA no Judiciário requer cautela. A União Europeia classifica essa aplicação como de "alto risco", impondo regras rigorosas de transparência, explicabilidade e revisão obrigatória. Nenhuma decisão pode ser tomada apenas com base em IA, e os algoritmos precisam ser constantemente auditados. Nos Estados Unidos, estados como Illinois e Califórnia exigem supervisão humana integral sobre qualquer aplicação de IA no Judiciário, além de garantir que advogados e partes tenham acesso aos critérios algorítmicos utilizados. No Brasil, a regulamentação ainda não assegura um nível equivalente de contestabilidade, o que pode dificultar a revisão das influências da IA nas decisões judiciais.
A regulamentação do CNJ representa um avanço, mas sua implementação exigirá um acompanhamento rigoroso para evitar riscos ao devido processo legal. Sem mecanismos claros de contestação, padrões rígidos de segurança para dados sensíveis e auditorias frequentes, há o perigo de que decisões opacas e algoritmos enviesados comprometam a justiça e os direitos fundamentais. A inteligência artificial pode ser uma ferramenta valiosa para aprimorar a eficiência do Judiciário, desde que sua utilização seja pautada por critérios sólidos de transparência, controle e respeito às garantias processuais. A evolução da regulamentação deve ser acompanhada de perto para garantir que a inteligência artificial não se torne um fator de opacidade e insegurança jurídica no Judiciário brasileiro.