Privacidade, Proteção De Dados e Inteligência Artificial

09 de outubro de 2024 - quarta

O uso da Inteligência Artificial nos tribunais e os desafios de governança e transparência

Por Solano de Camargo, presidente da Comissão de Privacidade, Proteção Dados e Inteligência Artificial da OAB SP


A introdução da inteligência artificial generativa (IAG) nos tribunais brasileiros representa um dos avanços mais promissores e desafiadores do sistema judiciário contemporâneo. Conforme destacado no relatório do CNJ, o uso dessas ferramentas pode melhorar significativamente a eficiência na tramitação de processos, oferecendo soluções automatizadas para tarefas repetitivas, como a elaboração de minutas, busca de precedentes e análise de documentos. No entanto, para que os benefícios sejam plenamente aproveitados, é essencial que o uso dessas tecnologias seja acompanhado por uma governança robusta, capaz de mitigar os riscos associados ao seu emprego​.

Do ponto de vista operacional, a IA generativa tem o potencial de transformar o dia a dia dos tribunais, especialmente no que diz respeito à velocidade com que decisões processuais podem ser elaboradas. Ferramentas como o ChatGPT e outros modelos de grande escala de linguagem podem ser usados para gerar textos que replicam, com boa precisão, a linguagem jurídica. Essa capacidade permite uma economia substancial de tempo, particularmente em processos de massa ou repetitivos. Contudo, um dos principais riscos associados ao uso dessa tecnologia é o chamado viés de automação, que se manifesta quando o usuário confia excessivamente no resultado gerado pela IA sem questionar sua validade​​.

Esse risco é especialmente preocupante em áreas técnicas ou complexas, como o Direito, onde a simples correspondência de padrões de linguagem pode não ser suficiente para assegurar uma decisão justa e adequada. Ferramentas de IA podem cometer “alucinações”, ou seja, gerar informações fictícias que parecem verdadeiras. No contexto judicial, isso pode significar a citação de precedentes inexistentes, conclusões incorretas ou até erros factuais que prejudicam diretamente as partes envolvidas. Por esse motivo, é imperativo que a utilização da IA nos tribunais seja sempre acompanhada de uma revisão humana criteriosa. O magistrado continua a ser o decisor final e responsável, cabendo-lhe verificar a precisão e a pertinência do material produzido​​.

Outro ponto importante é a transparência no uso da IA. O relatório do CNJ sugere que, para preservar a confiança no sistema judiciário, todos os operadores do direito, bem como as partes envolvidas, precisam ser informados sobre o uso dessas tecnologias. A opacidade no uso de IA pode gerar uma sensação de insegurança jurídica, principalmente se as partes ou seus advogados não souberem se uma decisão foi parcialmente automatizada. Além disso, a transparência interna entre magistrados e servidores também é fundamental para garantir que o uso da IA seja apropriado e revisado adequadamente​​.

A responsabilidade pelo uso da IA também não pode ser subestimada. Embora a IA seja uma ferramenta de apoio, a decisão final e a responsabilidade por ela recai sobre os magistrados. A IA deve ser vista como um auxílio no processo de decisão, mas jamais como um substituto para o julgamento humano. Isso porque a atuação jurisdicional envolve não apenas a aplicação fria da lei, mas também a interpretação das normas e a sensibilidade às particularidades de cada caso. A IA, por mais avançada que seja, ainda não é capaz de compreender nuances éticas e sociais que frequentemente permeiam os conflitos judiciais​​.

Além disso, o uso de IA nos tribunais brasileiros levanta questões importantes sobre privacidade e proteção de dados. Ferramentas de IA generativa geralmente operam com grandes volumes de dados, o que inclui informações pessoais sensíveis. Em conformidade com a Lei Geral de Proteção de Dados (LGPD), é necessário assegurar que o uso de dados pelos tribunais ocorra de maneira ética, protegendo os direitos dos indivíduos. A inclusão de dados pessoais em prompts, por exemplo, pode representar um risco se não houver políticas claras que impeçam a coleta e o uso indevido dessas informações pelas plataformas que fornecem os modelos de IA​​.

A educação e o treinamento contínuo dos magistrados e servidores do judiciário também são fundamentais. Para que as ferramentas de IA sejam usadas de forma eficiente e ética, é preciso que os operadores do Direito estejam familiarizados com suas potencialidades e limitações. A implementação de programas de capacitação é uma medida necessária para garantir que os usuários dessas ferramentas compreendam que, embora úteis, elas exigem uma supervisão humana constante. A formação adequada pode, inclusive, ajudar a mitigar o viés de automação, evitando que decisões injustas sejam tomadas com base em sugestões incorretas da IA​​.

No cenário internacional, já existem precedentes de utilização de IA em sistemas judiciais, como na China, onde algoritmos são usados para acelerar a tramitação de casos simples. No entanto, essa prática gera preocupações sobre a imparcialidade das decisões automatizadas, uma vez que a IA pode ser influenciada por vieses presentes nos dados usados para treiná-la. Isso reflete a necessidade de haver uma supervisão humana rigorosa e contínua, que assegure a integridade do processo judicial e que as ferramentas de IA estejam alinhadas com os princípios fundamentais do Direito​.


pub

Mais Notícias




pub
pub