Publicado em: 21 de outubro de 2025


A realidade dos processos judiciais no Brasil revela um cenário em que a padronização se tornou a regra geral. Em muitos tribunais, não apenas as peças processuais se repetem, mas também as próprias sentenças parecem diferir apenas pelo nome das partes, reproduzindo fundamentos e estruturas de casos anteriores quase de forma automática. Esse fenômeno, no entanto, precede o surgimento de ferramentas como o ChatGPT, o Gemini ou o DeepSeek. O compartilhamento de minutas há muito é uma prática comum, inclusive, com sites especializados em disponibilizar esse tipo de material.

A dificuldade de personalização das decisões não é apenas sintoma de uma sociedade altamente litigante e complexa, mas também reflexo de um mundo globalizado, no qual situações jurídicas semelhantes afetam um número cada vez maior de pessoas. O resultado é um Judiciário sobrecarregado por demandas que ultrapassam sua capacidade de análise e resposta individualizada, levando magistrados e servidores a recorrerem a estratégias de automação e replicação de conteúdo para otimizar o trabalho e garantir a continuidade da prestação jurisdicional. Mais do que demonizar essas práticas, é fundamental compreendê-las em sua dimensão estrutural, considerando que o sistema de Justiça opera sob intensa pressão de volume, burocracia e escassez de recursos humanos e tecnológicos. É justamente nesse cenário de acúmulo e repetição que ganham força as promessas de modernização tecnológica e a automação de tarefas judiciais por meio da Inteligência Artificial (IA), vistas por muitos como soluções inevitáveis para um sistema em colapso.

 Em agosto deste ano, o Tribunal de Justiça de Pernambuco (TJPE) apresentou ao público o Mecanismo de Inteligência Artificial de Apoio à Justiça (MAIA), resultado de um convênio firmado entre o Tribunal, a Universidade Católica de Pernambuco (Unicap) e a Universidade de Pernambuco (UPE). A ferramenta, considerada pioneira no estado, foi criada com o propósito de auxiliar desembargadores na elaboração de decisões judiciais de segundo grau, prometendo otimizar o fluxo de trabalho, reduzir a carga documental e acelerar a análise de processos. Nesse cenário, a introdução de tecnologias como o MAIA parece tentar responder à necessidade real de tornar mais ágil o trâmite de processos que impactam diretamente a vida das pessoas.

Segundo informações divulgadas no portal de notícias da instituição, o MAIA é capaz de gerar minutas de relatórios, votos e ementas, além de realizar análises processuais, sugerir documentos, aplicar etiquetas e verificar jurisprudências pertinentes. O sistema também conta com mecanismos de mitigação de vieses, concebidos para atenuar distorções baseadas em preferências ou padrões decisórios dos gabinetes. O nome, inspirado na civilização maia, povo reconhecido por seus avanços científicos e pela complexidade de sua organização social, sugere a promessa de um novo tempo para a Justiça.

A adoção do MAIA reflete uma tendência crescente do Poder Judiciário brasileiro em incorporar ferramentas de IA como resposta à histórica morosidade processual que marca o sistema. De acordo com uma pesquisa do Conselho Nacional de Justiça (CNJ), foram identificados 178 projetos de IA em funcionamento no Judiciário em 2024. O levantamento indica que 45,8% dos tribunais e conselhos já utilizam IA generativa, sobretudo em tarefas ligadas ao tratamento de texto, como geração (12,3%), melhoria (12,3%), sumarização (12,3%) e verificação ortográfica (10,9%). Entre os órgãos que ainda não implementaram essas ferramentas, 81,3% afirmam ter interesse em fazê-lo, sendo a Justiça Estadual o segmento com maior número de iniciativas, concentrando 48 projetos.

As principais razões apontadas para o desenvolvimento dessas tecnologias são o aumento da eficiência, a agilidade na tramitação processual e a melhoria na qualidade das decisões, com a promessa de maior precisão e celeridade na prestação jurisdicional. No entanto, à medida que a automação se infiltra em atividades antes restritas à sensibilidade e ao discernimento humanos, cresce também a inquietação sobre até que ponto a IA pode (ou deve) participar da produção da Justiça. Casos como o do COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) [1], nos Estados Unidos, ilustram bem como sistemas algorítmicos usados no Judiciário podem ser usados para reproduzir vieses raciais e comprometer garantias fundamentais, como o devido processo legal e a transparência das decisões, exigindo, portanto, uma análise cuidadosa de iniciativas semelhantes no contexto nacional – ainda que não tenham sido pensados com o intuito de provocar tais danos ou possuam algum nível de accountability e governança.

Embora sistemas de IA possam agilizar o deferimento de demandas urgentes e essenciais, como a concessão de um medicamento vital, a realização de um procedimento de saúde emergencial, a liberação de pensão alimentícia para uma criança ou o pagamento de indenizações a pessoas em situação de vulnerabilidade, a promessa de eficiência não pode ofuscar os riscos que acompanham seu uso no exercício da jurisdição. Quando mal implementados, esses sistemas não apenas expõem dados sensíveis ou reproduzem vieses históricos, mas também podem atrofiar a capacidade de julgamento dos operadores do Direito, substituindo o raciocínio crítico pela mera validação automatizada de padrões anteriores. A longo prazo, tal dinâmica pode empobrecer a argumentação jurídica, reduzir o espaço de interpretação e enfraquecer o papel humano de ponderação, elementos essenciais para que o Direito seja aplicado de maneira justa, contextualizada e sensível às especificidades de cada caso. 

Se é verdade que muitas tarefas judiciais são repetitivas e exigem consistência, também é certo que julgar envolve valores, contextos e interpretações que escapam ao cálculo algorítmico. Assim, o entusiasmo com a incorporação dessa tecnologia, em especial da IA generativa, convive com perguntas inevitáveis: de que modo são definidos os parâmetros para utilização dessas ferramentas? Como são fiscalizados os limites éticos do seu uso? De que forma é possível contestar decisões geradas com auxílio da IA? 

Diante dessas inquietações e considerando os potenciais impactos da automação sobre as decisões judiciais, foram realizados dois pedidos via Lei de Acesso à Informação (Lei nº 12.527/2011) e com base na Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018) para compreender o funcionamento da ferramenta MAIA. Os requerimentos buscaram esclarecer aspectos relativos à governança algorítmica, incluindo eventuais mecanismos de auditoria e transparência, relatórios de impacto e conformidade com a legislação vigente, bem como a existência de processos de revisão humana e explicações acessíveis das decisões assistidas pela ferramenta. Também foram solicitadas informações sobre o armazenamento e o processamento dos dados utilizados e gerados, com destaque para o tipo de infraestrutura, fornecedores envolvidos e localização dos servidores.

Em resposta às perguntas, o Tribunal de Justiça de Pernambuco encaminhou uma manifestação padronizada [2] que, embora não tenha respondido integralmente a todos os pontos levantados, trouxe alguns elementos que permitem certas considerações, que constituem, afinal, o objetivo principal deste texto. Além disso, a resposta trouxe alguns detalhes adicionais em relação às funcionalidades da ferramenta, que além de gerar textos, também será utilizada para extração de dados, classificação e agrupamento de documentos, bem como permitirá a interação via chatbot e análise dos casos jurídicos a partir da metodologia FIRAC (Fatos, Questões Jurídicas, Aplicação e Conclusão), bem como a sugestão de precedentes vinculantes, súmulas e jurisprudências relacionadas com a tese discutida.

O sistema ainda se encontra em fase de testes, com uso restrito, por ora, a um único Gabinete do Tribunal, na área cível. Após a aprovação do projeto-piloto, espera-se que a ferramenta seja adaptada e replicada nos juízos fazendário e criminal, onde serão conduzidos novos ciclos de teste. A implementação está prevista para iniciar em dezembro, podendo, contudo, ser antecipada. Segundo o Tribunal, a adoção da ferramenta tem como finalidade “aumentar a eficiência e celeridade processual sem substituir o julgamento e a responsabilidade humana na tomada de decisão”. 

Apesar das garantias apresentadas, a forma como foram descritas a “supervisão humana” e a “explicabilidade” do sistema ainda suscitam dúvidas. Segundo o Tribunal, o usuário manteria o controle cognitivo das decisões, podendo editar as minutas geradas e acompanhar o histórico de informações, o que asseguraria a supervisão humana e a rastreabilidade da cadeia de raciocínio do sistema. Contudo, o simples fato de o conteúdo ser editável não assegura, por si só, um controle humano real sobre o processo decisório. 

Para isso, seria necessário um mecanismo que obrigasse a intervenção humana em etapas críticas da aplicação, como o chamado human-in-the-loop. Em outras palavras, a supervisão não poderia ser apenas uma possibilidade eventual, mas deveria constituir uma etapa obrigatória do fluxo de uso da ferramenta, o que não ficou claro, a partir da resposta, se isto de fato já está sendo aplicado.

Ademais, não foi especificado qual modelo será utilizado para a execução dessas tarefas, limitou-se a informar que a solução será on-premise, sem chamadas a APIs externas. Permanecem, portanto, questões em aberto: trata-se de um modelo nacional? Proprietário e treinado do zero? ou um modelo open-source? Os algoritmos utilizados foram coletados em plataformas de código ou criados, bottom-up, pela equipe do projeto? É imprescindível que haja transparência quanto a essas escolhas, especialmente por se tratar de uma ferramenta destinada a atuar sobre a res publica, isto é, sobre a própria coisa pública.

A resposta do Tribunal também menciona que a ferramenta será continuamente retroalimentada a partir do feedback dos usuários e dos dados corrigidos e validados por assessores e magistrados. Contudo, permanece incerta a forma como esse processo será conduzido, o que é preocupante, uma vez que modelos dessa natureza estão sujeitos, ao longo do tempo, a fenômenos como o drift ou o skew

O primeiro, o drift, ocorre quando o comportamento dos dados (seus valores, relevância e distribuição) se altera com o passar do tempo. Sem um retreinamento adequado, a ferramenta pode, assim, começar a responder de forma defasada em relação à realidade atual ou, em casos mais graves, produzir respostas potencialmente incorretas ou até mesmo ilegais. 

O segundo fenômeno, o skew, ocorre quando o modelo entra em fase de produção, isto é, passa a operar em casos práticos e apresenta perda de desempenho. Isso pode ocorrer por diversos motivos, sendo um dos mais comuns a discrepância entre os dados utilizados no treinamento e aqueles encontrados no mundo real. Nesses casos, a ferramenta pode começar a “alucinar”, fenômeno que descreve a geração de respostas incorretas ou equivocadas – algo que pode ocorrer tanto em cenários de drift quanto de skew.

De toda forma, a retroalimentação por feedback dos usuários é, em princípio, positiva, mas exige critérios rigorosos de curadoria: quais feedbacks serão incorporados ao conjunto de treinamento, sob quais controles de qualidade e com que garantias de que não propagarão erros? Devem existir mecanismos claros de validação humana (human-in-the-loop) e testes paralelos (shadow tests) antes de promover qualquer atualização ou novo modelo em ambiente real.

Em relação à forma como o LLM recupera as informações que dão subsídios às suas respostas, em um ambiente judicial, cada assertiva poderia vir com citação verificável (órgão, número do processo, trecho e data). O mecanismo de busca poderia ainda filtrar e ranquear os resultados por vinculatividade, temporalidade e órgão julgador. Como não foram fornecidos maiores detalhes, propõe-se que a citação seja obrigatória, com quote-span (trecho exato) e checagem automática da integridade da fonte, pois LLMs podem alucinar citando, inclusive, fatos falsos.

Também é fundamental considerar como esses dados serão armazenados. Deve-se garantir a anonimização de informações sensíveis presentes no dataset, bem como assegurar que a nuvem utilizada cumpra todos os requisitos de segurança aplicáveis, protegendo a confidencialidade e a integridade das informações.

Outro aspecto relevante é a arquitetura escolhida para o modelo, que não realizará chamadas a APIs externas. Em outras palavras, os dados de treinamento e aqueles gerados pelos usuários durante o uso permanecerão dentro da infraestrutura do Tribunal. É fundamental, contudo, esclarecer quem terá acesso aos dados de treinamento e retreinamento do modelo, bem como os tipos de dados utilizados, considerando que podem conter informações sensíveis. Rodar sem APIs externas reduz a superfície de exposição, mas aumenta a responsabilidade, exigindo acessos estratificados a logs e minutas, retenção mínima, trilhas imutáveis e testes regulares de vazamento entre processos, para garantir que dados de um caso não “apareçam” em outro via cache ou índice.

Além desses pontos, menciona-se que o modelo será submetido a um processo contínuo de reavaliação e retreinamento, mas é fundamental que esse procedimento seja melhor detalhado. É necessário assegurar acesso público e transparente às informações sobre como essas atualizações serão realizadas, considerando que terão impactos diretos nas consultas e nas respostas fornecidas.

Do ponto de vista da transparência e da avaliação técnica, também é fundamental aprimorar a auditabilidade do sistema e, para além do objetivo de “celeridade”, publicar métricas de qualidade: acurácia de citações, recall de precedentes vinculantes, taxa de edição humana por seção, incidentes por mil respostas e comparativos cegos do MAIA versus baseline. Sem esses números, não é possível mensurar de forma confiável o impacto da ferramenta em casos reais.

A garantia de “explicabilidade pela cadeia de pensamentos”, mencionada na resposta do Tribunal, por sua vez, talvez não seja suficiente no contexto dos LLMs, que geram textos prováveis, e não trilhas cognitivas verificáveis. O que se exige, nesse caso, é uma trilha técnica e auditável: prompt template e parâmetros utilizados, documentos efetivamente recuperados com seus identificadores e trechos citados, pontuações de ranqueamento, versões do modelo e do índice, além das regras de composição do texto final. Sem esses elementos, auditar erros ou vieses torna-se um exercício meramente retórico. Destaca-se, nesse contexto, a menção no site de notícias da instituição sobre a existência de um mecanismo de correção de vieses. Apesar de questionamentos via LAI sobre as técnicas utilizadas, não foi esclarecido o que se entende por “viés”, como ele é identificado ou de que forma é corrigido.

A resposta da instituição também indica que há monitoramento das interações e dos fluxos de uso da ferramenta, o que garante transparência quanto à autoria das consultas. No entanto, isso não assegura a explicabilidade do modelo, ou seja, não esclarece como ele chegou a determinada resposta e quais elementos contribuíram para aquela conclusão. Considerando que estamos lidando com a esfera judicial, que interfere diretamente nos direitos dos cidadãos, é essencial compreender como e com base em quais critérios as decisões ou orientações são formadas. O mero registro de dados e a descrição de como a informação foi extraída são insuficientes, sendo necessária uma explicação mais robusta e fundamentada.

Também permanece o questionamento sobre até que ponto o repasse de atividades-meio à IA poderá afetar o raciocínio e a argumentação humanos das decisões, como um possível efeito colateral da transferência de funções rotineiras para sistemas automatizados, levando, a longo prazo, à redução da capacidade de avaliação crítica e independente dos tomadores de decisão.

Ao mesmo tempo em que são levantadas essas questões, é necessário reconhecer que a ferramenta pretende atender a uma demanda real e legítima da sociedade diante da morosidade do Poder Judiciário, contribuindo para a concretização dos princípios da efetividade, da celeridade e da duração razoável do processo, todos consagrados em nosso ordenamento jurídico. Além disso, a iniciativa tem o mérito de reunir, para além dos operadores do direito, especialistas das principais universidades do estado, que conhecem de perto as especificidades e desafios locais, evitando, assim, a mera importação de soluções prontas de outros contextos, que dificilmente se ajustariam com precisão à nossa realidade.

Contudo, persistem lacunas quanto aos mecanismos de governança e avaliação de risco ainda “em discussão”, à explicabilidade mal definida (inclusive com a problemática da “cadeia de pensamentos do sistema” que permitiria a justificação clara e objetiva da decisão, sendo insuficiente para este caso), à promessa de operar sem APIs externas (on-prem) sem detalhes de custos/segurança/qualidade, ausência pública de métricas, benchmarks e um relatório de impacto específico. 

As dúvidas apontadas aqui não objetivam negar a importância de aprimorar os processos internos do Judiciário para uma prestação jurisdicional mais eficiente. Buscam, antes, questionar as premissas da implementação de um sistema que, embora bem-intencionado, pode produzir efeitos colaterais indesejados, como também contribuir para o seu  aperfeiçoamento. 

Nesse contexto, é oportuno retornar ao nosso ponto de partida e recordar um outro aspecto da história que inspirou o nome da ferramenta. Avançada em ciência, arquitetura e organização social, a civilização maia foi, ainda assim, corroída por dentro antes de sucumbir a forças externas, apresentando sinais de declínio mesmo antes da invasão colonial. 

A referência à essa civilização, portanto, carrega consigo não apenas o símbolo de uma sociedade avançada, mas também o alerta de que até os sistemas mais sofisticados podem enfraquecer quando perdem de vista seus próprios fundamentos. Para tanto, é indispensável assegurar transparência quanto às métricas e aos processos utilizados, de modo a permitir que a sociedade civil também possa contribuir para o aprimoramento dos mecanismos de governança pública, especialmente no caso de ferramentas que possam incidir diretamente sobre o exercício de direitos fundamentais. 

Que a analogia não se cumpra. Que a ferramenta, enquanto proposta de modernização do Judiciário, não repita o destino da civilização que a inspirou. Que o sistema avance com prudência e discernimento, equilibrando tradição e inovação, sem jamais perder de vista os princípios que sustentam a Justiça e a confiança da sociedade em suas instituições.


Notas de rodapé

[1]  O COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), desenvolvido pela Northpointe, é uma ferramenta algorítmica desenvolvida para prever o risco de reincidência criminal, classificando indivíduos em categorias de baixo, médio ou alto risco. Baseia-se em um questionário que considera fatores como idade, histórico criminal, emprego, uso de drogas e desempenho educacional. O sistema é alvo de críticas por reproduzir vieses raciais. Uma investigação da ProPublica em 2016 mostrou que o COMPAS tendia a classificar pessoas negras como de maior risco de reincidência em relação a pessoas brancas.

 

Rhaiana Valois

Advogada, pós-graduanda em Lei Geral de Proteção de Dados na Legale Educacional e formada em Direito pela Universidade Federal de Pernambuco (UFPE). É Secretária da Subcomissão de Inteligência Artificial da Comissão de Direito e Tecnologia da Informação (CDTI) da OAB/PE. Participou do 41º Programa de Intercâmbio do Conselho Administrativo de Defesa Econômica (PinCade) e do Programa de Formação do Centro de Análise da Liberdade e do Autoritarismo (LAUT). Ex-integrante do Laboratório de Design Jurídico da USP e foi estagiária de Pós-Graduação no Núcleo de Recursos Cíveis da Defensoria Pública de Pernambuco (DPPE). Atualmente, é pesquisadora no Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec), trabalhando com temas relacionados à regulação de plataformas digitais, gênero, Inteligência Artificial, criptografia e direitos de crianças e adolescentes.


Ramon D’barssoles

Engenheiro de software com mais de 4 anos de experiência na área, baseado em Recife, Brasil. Atualmente trabalhando no projeto da Toyota, onde trabalha no desenvolvimento de novas funcionalidades e microsserviços. Pós-graduando em Deep Learning na UFPE, onde integra a sua experiência com inteligência artificial.

Compartilhe

Posts relacionados