Inteligência artificial e diálogo processual: padronização textual, contraditório e fundamentação
4 de março de 2026
Oscar Valente Cardoso
Juiz Federal, Doutor em Direito pela Universidade Federal do Rio Grande do Sul – UFRGS, Coordenador do Comitê Gestor de Proteção de Dados do TRF4, Professor no Mestrado em Direito e Segurança da Informação da Universidade Europeia de Lisboa.

Resumo
A inteligência artificial (IA) integrou-se definitivamente à prática do processo civil e modificou tanto a forma como juízes decidem quanto como advogados peticionam. Este artigo examina os reflexos práticos dessa transformação, com foco no cenário em que os sujeitos processuais utilizam ferramentas de IA generativa. O principal risco não está na existência e nos usos da tecnologia, mas na delegação acrítica de funções que exigem uma análise individualizada. O estudo analisa como a padronização excessiva de peças processuais, a geração de fundamentações estruturalmente completas e materialmente genéricas e o enfraquecimento do contraditório quando uma IA responde aos argumentos de outra IA comprometem a qualidade informacional do processo. Demonstra-se que o dever de fundamentação assume uma função renovada como instrumento de controle da utilização tecnológica, enquanto a responsabilidade profissional humana permanece indispensável para preservar a individualização do caso concreto. Conclui-se que a convivência entre inteligência artificial e processo é irreversível, mas exige uma revisão crítica rigorosa por parte de magistrados e advogados, para que a tecnologia permaneça sendo usada como um instrumento de apoio, e não como substituta da análise jurídica efetiva.
Palavras-chave: Processo civil. Inteligência artificial. Princípio do contraditório. Princípio da fundamentação das decisões judiciais. Responsabilidade profissional.
Abstract
Artificial intelligence (AI) has become firmly embedded in civil procedure, reshaping both judicial decision-making and the drafting of pleadings by attorneys. This article examines the practical effects of that transformation, focusing on situations in which procedural actors rely on generative AI tools. The primary risk does not lie in the existence or legitimate use of the technology, but in the uncritical delegation of functions that require individualized analysis. The study shows how excessive standardization of filings, the production of decisions that are structurally complete yet substantively generic, and the weakening of adversarial participation when one AI responds to arguments generated by another AI undermine the informational quality of the proceedings. It argues that the duty to provide reasoned decisions assumes a renewed role as a mechanism for controlling technological use, while human professional responsibility remains indispensable to preserve attention to the specific facts of each case. The article concludes that the coexistence of AI and civil litigation is irreversible, but it requires rigorous human review by judges and lawyers so that technology functions as a support tool rather than a substitute for genuine legal analysis.
Keywords: Civil procedure. Artificial intelligence. Adversarial process. Duty to give reasons. Professional responsibility.
Sumário: Introdução. 1 O novo cenário do processo civil com dois usuários de inteligência artificial. 2 O princípio da fundamentação das decisões judiciais. 3 Efeitos processuais das petições redigidas por inteligência artificial. 4 O contraditório enfraquecido: quando a inteligência artificial responde à inteligência artificial. 5 Responsabilidade processual e dever de revisão humana. Conclusão. Referências.
Introdução
A inteligência artificial (IA) ingressou definitivamente na prática do processo civil. Em poucos anos, deixou de ser uma ferramenta experimental para tornar-se instrumento cotidiano, tanto do Judiciário quanto da advocacia. Os tribunais passaram a utilizar sistemas capazes de sugerir minutas, localizar precedentes, agrupar processos semelhantes e estruturar decisões. Em paralelo, advogados passaram a empregar modelos de linguagem para redigir petições iniciais, contestações e recursos em escala até então impossível.
Esse fenômeno não é apenas uma mudança instrumental, mas uma transformação estrutural que altera um pressuposto tradicional do processo: a ideia de que o diálogo processual ocorre diretamente entre pessoas. Cada vez mais, o que se observa é um procedimento em que as manifestações das partes e a própria decisão judicial são mediadas por sistemas automatizados. O processo passa a ser, ao menos parcialmente, uma interação entre textos gerados com auxílio da mesma tecnologia. Não se trata apenas de uma mudança tecnológica, mas de uma modificação funcional na própria dinâmica do princípio do contraditório.
A questão se torna ainda mais complexa quando se considera que essas ferramentas operam mediante algoritmos treinados em grandes volumes de textos jurídicos, principalmente doutrina e decisões judiciais, a fim de reproduzir os seus padrões linguísticos e argumentativos, sem necessariamente compreender o contexto específico do caso concreto. Os grandes modelos de linguagem ou LLM (Large Language Models) utilizados nessas plataformas podem gerar referências a julgados inexistentes (fenômeno conhecido como “alucinação”), citar dispositivos legais com imprecisão ou apresentar teses inadequadas ao caso específico. Essa característica dos sistemas de IA generativa transfere ao profissional do Direito um dever de revisão que não pode ser meramente formal, e exige a conferência humana rigorosa de cada citação e argumento apresentado.
A discussão jurídica sobre inteligência artificial concentrou-se, inicialmente, na legitimidade do uso de sistemas pelos julgadores. Questionou-se se a decisão poderia – ou não – ser automatizada e se a tecnologia comprometeria a independência judicial. Contudo, a evolução recente demonstra que o problema é mais amplo. O uso de IA pelos advogados produz um impacto igualmente relevante, pois a decisão judicial é construída a partir das alegações das partes. Se essas alegações também passam a ser geradas por sistemas de IA, modifica-se a qualidade informacional do processo.
A literatura especializada destaca que a simultaneidade do uso de IA nos processos judiciais cria um cenário inédito: não se trata mais de questionar se a tecnologia é apropriada para o Direito, mas compreender como a tecnologia está reorganizando o próprio funcionamento da prática processual. A velocidade de produção textual permite que um escritório de advocacia gere centenas de petições diárias, cada uma com estrutura formal adequada e referências jurídicas aparentemente válidas. Ao mesmo tempo, sistemas de apoio ao julgador sintetizam milhares de julgados para sugerir estruturas decisórias nos tribunais. O resultado é uma possível convergência patológica, na qual petições padronizadas encontram decisões igualmente padronizadas, criando um diálogo processual que avança formalmente, mas não se aprofunda materialmente.
O Código de Processo Civil exige que a decisão seja fundamentada e enfrente os argumentos relevantes deduzidos pelas partes (arts. 11 e 489, § 1º). Na prática, porém, a eficácia desse dever depende da qualidade das próprias manifestações processuais. Petições extensas, padronizadas ou desconectadas do caso concreto dificultam a identificação das questões efetivamente controvertidas. A utilização indiscriminada de IA tende a intensificar esse fenômeno, ao produzir petições tecnicamente bem redigidas, mas pouco aderentes aos fatos do processo, por vezes contendo citações imprecisas ou precedentes inexistentes.
Desse modo, o principal problema atual não está apenas no risco de decisões automatizadas, mas na transformação do diálogo processual como um todo. Os juízes passam a decidir com auxílio de sistemas que sintetizam padrões decisórios, enquanto os advogados apresentam argumentos produzidos por ferramentas que reproduzem padrões argumentativos. O resultado pode ser um processo formalmente correto, mas progressivamente distanciado da análise individual do caso concreto.
O dever de fundamentação assume, então, uma função renovada, porque deixa de ser apenas um elemento da decisão para se tornar um mecanismo prático de controle do uso da tecnologia no processo. Exigir que o juiz enfrente efetivamente os argumentos das partes implica também determinar que tais argumentos sejam minimamente identificáveis, verificáveis e vinculados ao caso específico.
Este artigo examina os reflexos práticos desse novo cenário. O objetivo principal não é o de discutir a inteligência artificial em termos teóricos ou filosóficos, mas analisar como a sua utilização simultânea por juízes e advogados já está alterando a forma de litigar, decidir e controlar decisões judiciais. A perspectiva adotada é fundamentalmente prática e parte da observação concreta de como os sistemas de IA estão sendo utilizados nos tribunais e nos escritórios de advocacia e das consequências processuais que decorrem dessa utilização.
A questão principal é a seguinte: se a tecnologia participa da elaboração das alegações e da própria decisão, quais cuidados processuais passam a ser necessários para preservar o contraditório, a responsabilidade profissional dos sujeitos processuais e a utilidade do dever de fundamentação? Em complemento, questiona-se de que forma a estrutura processual civil, concebida a partir do pressuposto de atuação humana responsável, pode absorver a mediação tecnológica sem comprometer a sua função essencial de resolução individualizada de conflitos.
1 O novo cenário do processo civil com dois usuários de inteligência artificial
A utilização de inteligência artificial no processo civil deixou de ser unilateral. Não é apenas o Judiciário que emprega ferramentas tecnológicas, mas a advocacia (pública e privada) também passou a incorporá-las em larga escala. Hoje, sistemas são utilizados para pesquisar acórdãos de tribunais, estruturar teses, resumir documentos e, sobretudo, redigir peças processuais completas.1
A bifurcação do uso de IA entre juízes e advogados ocorre em contextos distintos. Para a advocacia, as ferramentas funcionam como auxiliares na automação de tarefas repetitivas, com o preenchimento de dados das partes, a pesquisa de acórdãos, a geração de minutas de petições iniciais, contestações e recursos, entre outras peças relevantes. Nesse contexto, há um ganho de produtividade, tendo em vista que um escritório que despenderia semanas para redigir centenas de petições em litígios de massa agora consegue produzi-las em horas, com organização formal adequada e referências jurídicas automaticamente pesquisadas. Para o Judiciário, a situação apresenta nuances diferentes, considerando que os sistemas de apoio visam aumentar a eficiência na análise de processos repetitivos, na localização de precedentes e na organização de informações, mas a decisão final permanece formalmente atribuída ao magistrado.
Em consequência, as manifestações processuais e as decisões judiciais passaram a compartilhar a mesma origem instrumental.
Essa comunhão instrumental gera um paradoxo: ambos os sistemas (aquele que auxilia o advogado e aquele que auxilia o juiz) são frequentemente treinados em bases de dados similares (de jurisprudência, legislação e doutrina), utilizam algoritmos semelhantes de processamento de linguagem natural e reproduzem padrões textuais equivalentes. Como resultado, petições geradas por um modelo de IA tendem a “conversar” em linguagem muito semelhante àquela que será produzida pela ferramenta que auxiliará o juiz em sua resposta. O processo passa a ser, em significativa medida, um diálogo entre máquinas que compartilham o mesmo “idioma” padrão, mediado apenas formalmente por sujeitos humanos que assinam os textos gerados.
Do ponto de vista prático, isso altera o funcionamento cotidiano do processo. Os escritórios conseguem produzir petições em grande quantidade, com organização formal adequada e linguagem tecnicamente correta. A facilidade de produção dos atos, porém, gera um efeito colateral perceptível, consistente no aumento expressivo do volume de peças sem o correspondente crescimento de qualidade informacional. O processo recebe mais texto, mas nem sempre recebe mais informações relevantes.
Nos tribunais, ocorre um fenômeno semelhante. Ferramentas de apoio organizam precedentes, classificam casos e sugerem estruturas decisórias. O ganho de eficiência é evidente, especialmente em unidades judiciárias com alto número de processos repetitivos. Entretanto, quando o caso concreto apresenta peculiaridades fáticas, a tendência natural do sistema é aproximá-lo de padrões já conhecidos, em vez de realizar a distinção adequada. Surge, assim, uma convergência: petições baseadas em modelos e decisões baseadas em padrões passam a se encontrar no mesmo processo.
Essa convergência não é neutra. Os modelos estatísticos empregados nesses sistemas operam por aproximação: dado um conjunto de fatos, o algoritmo busca no histórico de jurisprudência os casos similares e extrai os padrões decisórios mais frequentes. Em processos repetitivos (ações de cobrança, execuções fiscais, demandas consumeristas massificadas, entre outros), esse funcionamento é eficiente e mesmo benéfico, pois permite reduzir o tempo de análise. Porém, em litígios com características fáticas peculiares, o sistema tende a “forçar” o enquadramento em categorias preexistentes, minimizando as diferenças relevantes. O juiz, por sua vez, ao utilizar um modelo de IA semelhante, tende a confiar nos padrões sugeridos, especialmente quando o volume de processos é elevado, o que cria uma retroalimentação: o algoritmo sugere aproximação com padrão X; o juiz confia nessa sugestão e estrutura uma decisão compatível com padrão X; futuros algoritmos aprendem essa correspondência e a replicam para os casos posteriores.
A consequência prática desse fenômeno é a padronização progressiva do diálogo processual. Em vez de alegações formuladas a partir da realidade específica do litígio, multiplicam-se peças construídas por semelhança com casos anteriores. O mesmo ocorre com a decisão, que pode assumir estrutura típica de julgados semelhantes. O processo passa a funcionar menos como investigação jurídica de um conflito e mais como o enquadramento de um caso em categorias previamente estabilizadas. Petições que antes ocupavam dez páginas agora ocupam trinta, com longas exposições doutrinárias, transcrição extensa de acórdãos e múltiplas teses subsidiárias, frequentemente contraditórias entre si. Embora sejam tecnicamente bem estruturadas, essas peças raramente apresentam uma argumentação mais sofisticada ou fundamentação mais sólida do que as suas antecessoras, redigidas exclusivamente por pessoas. O ato de “copia e cola” migrou dos buscadores da Internet para as aplicações de IA generativa. O acréscimo é puramente quantitativo, e a proliferação de texto mascara, em muitos casos, a insuficiência de análise individualizada do caso concreto.
Isso não significa que a tecnologia seja inadequada. Em grande parte dos processos de massa, a padronização contribui para previsibilidade e rapidez. O problema surge quando o padrão substitui a análise. Litígios com peculiaridades relevantes podem receber tratamento idêntico a casos realmente repetitivos, não por opção deliberada do julgador, mas porque as informações relevantes não se destacaram no volume de dados apresentados.
A questão torna-se ainda mais complexa quando se considera o acesso à justiça. Embora a automação por IA potencialmente democratize o acesso a ferramentas sofisticadas de pesquisa jurídica e redação de peças (e, assim, remova barreiras econômicas que historicamente excluíram pequenos escritórios de advocacia), a padronização resultante pode gerar o paradoxo oposto: todas as partes apresentam argumentação similar, estruturada pelos mesmos modelos, o que reduz a diferenciação competitiva e, potencialmente, compromete o dever de individualização que caracteriza o processo civil moderno.
Outro efeito observável é a ampliação do tamanho das peças processuais. A facilidade de geração de texto incentiva petições extensas, frequentemente com longas transcrições doutrinárias e jurisprudenciais. Na prática forense, isso dificulta a identificação das questões centrais do processo. O juiz precisa localizar, em meio a muitas páginas, qual é efetivamente o pedido, quais são os fatos controvertidos e qual é a tese jurídica pertinente.
O resultado é um paradoxo: quanto maior a quantidade de texto produzida com auxílio tecnológico, maior pode ser a dificuldade de compreensão do caso. O processo, que deveria reduzir incertezas, passa a exigir um esforço adicional para separar as informações relevantes do conteúdo padronizado.
Nesse contexto, a tecnologia modifica não apenas a velocidade do processo, mas a sua própria qualidade comunicativa. O princípio do contraditório deixa de ser apenas uma troca de argumentos entre pessoas e passa a ser a troca de textos mediados por sistemas automatizados. A preocupação prática deixa de ser a existência da tecnologia e passa a ser o modo como ela interfere na identificação do objeto litigioso.
2 O princípio da fundamentação das decisões judiciais
O art. 489, § 1º, IV, do Código de Processo Civil exige que o juiz enfrente os argumentos relevantes das partes e explicite as razões do resultado adotado. Na rotina forense, essa exigência sempre funcionou como mecanismo de controle: a decisão deve demonstrar que o julgador compreendeu o caso concreto. Com o uso de IA, a questão a ser analisada não está na supressão da fundamentação, mas na mudança do modo como ela pode falhar.2
Historicamente, a deficiência de fundamentação manifesta-se por seu aspecto formal, como, por exemplo, as decisões que omitem o enfrentamento de argumentos relevantes, que contêm lacunas lógicas evidentes ou que simplesmente reproduzem pedidos sem justificativa específica. Os tribunais superiores (e, em especial, o Superior Tribunal de Justiça) desenvolveram jurisprudência consistente para identificar esses vícios. O pressuposto é o de que a deficiência possa ser identificada pela insuficiência textual: se não está escrito, não há fundamentação acerca da questão.
Atualmente, é possível utilizar modelos de IA generativa para produzir decisões com estrutura adequada (relatório, fundamentação e dispositivo bem organizados), sem que isso garanta que as alegações específicas do processo tenham sido efetivamente examinadas. A tecnologia permite gerar textos juridicamente coerentes, mas baseados em padrões decisórios gerais. O risco no uso da IA não é o da ausência de fundamentação, mas sim da elaboração de uma fundamentação genérica.
Esse fenômeno representa uma mudança relevante no conceito tradicional de deficiência de fundamentação. Não se trata de ausência, mas de inadequação material. A decisão elaborada por um modelo de IA generativa contém citações de acórdãos e de doutrina, referências legais, discussão de princípios e conclusões logicamente estruturadas. Ao primeiro exame, atende formalmente ao conteúdo mínimo exigido pelo § 1º do art. 489 do CPC. Porém, quando se compara o texto da fundamentação com os autos do processo, descobre-se que a análise foi conduzida em nível de generalidade que não corresponde às questões efetivamente controvertidas. A fundamentação é suficiente para casos similares, mas insuficiente para aquele caso específico.
Trata-se de uma fundamentação formalmente completa, mas materialmente genérica. A decisão sugerida pela máquina pode gerar uma armadilha cognitiva, porque o leitor (tribunal revisor, advogado da parte, doutrinador etc.) pode ter a falsa impressão de que houve a análise efetiva, considerando que o texto possui uma aparência de rigor. Somente uma leitura comparativa com os autos, os fatos e as provas pode revelar que a argumentação foi elaborada de forma abstrata, sem aderência aos fatos específicos.
Na prática, isso aparece em decisões que reproduzem entendimentos jurisprudenciais corretos, mas não enfrentam o ponto específico levantado pela parte. O texto é formalmente adequado e dificilmente qualificável como uma decisão não fundamentada, apesar de não resolver de forma específica e adequada o conflito apresentado no processo. A parte percebe que recebeu uma resposta, mas não às perguntas que formulou.
Esse fenômeno torna o controle recursal mais complexo. Antes, a deficiência de fundamentação era perceptível pela insuficiência ou ausência de justificativa. Agora, o problema pode estar oculto em decisões extensas. O tribunal revisor passa a ter dificuldade de distinguir entre fundamentação efetiva e fundamentação apenas estruturalmente completa.
Essa dificuldade é ampliada quando se consideram os limites cognitivos dos próprios julgadores. Um juiz de um tribunal de apelação pode revisar centenas de decisões por semana. Quando alia esse volume ao fato de que a decisão recorrida apresenta uma estrutura formalmente correta, a tendência é a de aceitar a decisão como fundamentada, sem a conferência minuciosa de sua correspondência com os autos. O sistema de controle de qualidade recursal, concebido para detectar deficiências de fundamentação evidentes, torna-se menos eficaz contra a fundamentação que se oculta na formalidade.
A situação se agrava quando as próprias alegações das partes são padronizadas. Se a petição inicial apresenta argumentos genéricos e a contestação responde de forma igualmente genérica, a decisão tende a operar no mesmo plano de generalidade.
Com isso, forma-se um ciclo, no qual manifestações pouco individualizadas produzem decisões igualmente pouco individualizadas.
Esse ciclo vicioso é particularmente observável em litígios de massa, nos quais as partes (frequentemente representadas pelo mesmo escritório ou pelo mesmo órgão público) utilizam as mesmas peças-padrão, com argumentação pré-formulada. O juiz, ao receber dezenas de petições idênticas, estrutura uma decisão igualmente padronizada. O tribunal revisor, observando a replicação, valida o padrão. Como resultado, há centenas ou milhares de decisões que resolvem formalmente os litígios, mas sem uma análise particularizada. A eficiência que se ganha em velocidade é compensada pela perda em qualidade individual de análise.
O juiz, então, enfrenta uma nova dificuldade prática, que é a de identificar quais argumentos realmente demandam respostas. O excesso de informações irrelevantes pode obscurecer o ponto controvertido. A tecnologia, que deveria facilitar a análise, pode aumentar o esforço cognitivo necessário para compreender o caso.
Por isso, o dever de fundamentação ganha uma função operacional. Mais do que justificar o resultado, passa a exigir seleção e precisão. O juiz precisa indicar expressamente quais são os fatos relevantes, qual tese foi acolhida e por que as demais não foram consideradas pertinentes. A clareza torna-se um elemento essencial para evitar que a decisão se torne apenas uma síntese de padrões jurisprudenciais.
Nesse cenário, a fundamentação deixa de ser apenas um elemento formal de validade da decisão e passa a ser um instrumento de organização do próprio processo. Ao explicitar o raciocínio aplicado ao caso concreto, o juiz reintroduz a individualização em um ambiente caracterizado pela padronização tecnológica. A decisão bem fundamentada funciona, assim, como um mecanismo prático de correção dos efeitos da automatização parcial do procedimento.
3 Efeitos processuais das petições redigidas por inteligência artificial
O uso de inteligência artificial na advocacia também produz efeitos perceptíveis na prática forense. Os modelos de IA generativa são capazes de redigir petições iniciais, contestações, recursos e memoriais em poucos minutos, com estrutura formal adequada e referências normativas plausíveis. O ganho de produtividade é alto. Porém, a experiência prática revela problemas recorrentes que impactam diretamente o processo.
As ferramentas de automação jurídica, em regra, funcionam a partir de um fluxo comum, em que o advogado insere dados do cliente, descreve os fatos do caso, seleciona a espécie de peça processual desejada e fornece informações sobre a fundamentação esperada. O sistema então pesquisa a jurisprudência correlata, extrai padrões de peças similares e gera uma minuta de modo automático. Em muitos casos, a minuta pode ser utilizada com mínimas alterações, especialmente em causas de elevado grau de padronização. Essa automatização permite que um único advogado produza centenas de peças por dia, o que modifica a escala de produção possível.
Um dos efeitos mais frequentes é a padronização excessiva das peças. As petições passam a reproduzir modelos amplos, com longas exposições teóricas e citações jurisprudenciais extensas, mas com pouca aderência aos fatos específicos do caso. A individualização da causa, que deveria orientar a construção da tese, torna-se secundária. O texto é tecnicamente correto, mas não necessariamente útil para a solução do litígio.
Essa padronização ocorre mesmo quando o advogado tenta personalizar a peça. Os modelos de linguagem são treinados em milhões de documentos e aprendem estruturas argumentativas típicas. Quando o sistema recebe um comando para “gerar petição inicial em ação de compensação por danos morais”, reproduz a estrutura padrão previamente aprendida: a exposição do histórico das questões de fato em um formato narrativo; a discussão dos elementos do dano moral segundo a jurisprudência dos tribunais (com citações, em regra, de acórdãos do Superior Tribunal de Justiça); a referência a acórdãos similares ao caso; e a conclusão com o pedido quantificado. Mesmo que o caso específico apresente elemento de grande relevância não abrangido por esse padrão (como uma circunstância factual singular), o sistema não necessariamente o destaca, porque o algoritmo não compreende a sua relevância relativa e apenas reproduz os padrões aprendidos nos dados de treinamento.
Outro problema relevante é a incorporação de acórdãos inexistentes ou citados de forma incorreta. Os modelos de IA generativa podem gerar referências que aparentam verossimilhança formal, mas que não correspondem a julgados reais ou cuja conclusão foi distorcida. Na prática, isso transfere ao advogado o dever de revisão rigorosa do conteúdo produzido. O erro da ferramenta não exclui a responsabilidade profissional, pois a assinatura da peça continua sendo humana.
O fenômeno das “alucinações” em modelos de linguagem é bem conhecido e documentado. Um modelo treinado em jurisprudência brasileira pode, quando consultado sobre um julgado que não está presente em seus dados de treinamento ou que está presente de forma incompleta, “alucinar” uma conclusão ou até mesmo um número de processo. Para o leitor desatento, a referência é verossímil, porque menciona um tribunal real, matéria pertinente e conclusão juridicamente razoável. Porém, o julgado não existe, ou existe com decisão diversa. Esses erros, quando não forem detectados na revisão humana, comprometem fundamentalmente a credibilidade da peça e podem levar ao indeferimento dos pedidos formulados na petição inicial ou no recurso, ou à condenação em litigância de má-fé, entre outras consequências processuais.
Também se observa a inserção de argumentos incompatíveis com os próprios documentos juntados aos autos. A inteligência artificial, ao operar por padrões textuais, pode sugerir teses adequadas para casos semelhantes, mas inadequadas para aquele processo específico. Se o advogado não realizar uma conferência minuciosa, a petição passa a conter inconsistências que fragilizam a credibilidade dos argumentos e dos pedidos da parte.
Essas inconsistências são particularmente prejudiciais em litígios complexos, em que a petição inicial delimita as questões de fato e de direito que orientarão toda a discussão processual. Por exemplo, se o advogado utilizar um modelo padrão de petição em ação de responsabilidade civil que inclui argumentação genérica sobre obrigação de indenizar, mas os autos do caso específico revelarem a ausência de dano patrimonial (e a presença apenas de dano imaterial questionável), a petição fica internamente contraditória. O argumento genérico sobre responsabilidade civil aparentemente sólido contrasta com a documentação que não especifica o dano alegado.
Do ponto de vista do processo, isso gera consequências concretas. O juiz precisa filtrar as informações irrelevantes, verificar a autenticidade das citações e identificar quais argumentos efetivamente demandam enfrentamento. O tempo economizado na produção da peça pode ser compensado pelo aumento do tempo necessário para a sua análise.
Além disso, a facilidade de produção textual incentiva o aumento do número de alegações subsidiárias e alternativas. Com isso, as petições passam a acumular múltiplas teses, muitas vezes contraditórias entre si, sob a justificativa de ampliar as chances de êxito. Esse excesso dificulta a delimitação do objeto litigioso, pode comprometer a aplicação do princípio do contraditório e, em casos mais graves (como na menção a decisões inexistentes), levar ao indeferimento dos pedidos formulados. A petição que teria dez páginas passa a ter trinta, sem que necessariamente ocorra um acréscimo na qualidade argumentativa. O tribunal revisor, ao receber uma petição de recurso com vinte teses diferentes, encontra dificuldade em identificar qual é a tese principal que demanda enfrentamento e, assim, pode gerar fundamentação genérica que não aborde nenhuma delas de forma suficientemente aprofundada.
Há, ainda, reflexos na litigância de massa. Os escritórios de advocacia que atuam em grande volume de processos e as procuradorias públicas podem utilizar modelos de IA para replicar estruturas argumentativas em milhares de processos. Embora isso seja eficiente do ponto de vista operacional, pode gerar homogeneização artificial de casos que apresentam diferenças relevantes. A padronização, quando não controlada, obscurece as particularidades que deveriam ser consideradas em cada caso.
Em síntese, a utilização de IA na redação de petições não é problemática em si mesma. O risco surge quando a ferramenta substitui a análise individualizada do caso concreto. O processo civil pressupõe alegações responsáveis e verificáveis. A tecnologia pode auxiliar na organização do texto, mas não dispensa o dever profissional de conferir, adaptar e validar cada argumento apresentado. A linha que separa o uso apropriado e o inadequado de IA na advocacia passa pela personalização. É apropriado utilizar modelos de IA para pesquisar acórdãos, para organizar a estrutura de peça, para identificar argumentos que outras partes utilizaram em casos similares, para antecipar os argumentos da parte contrária, entre outros fins. Por outro lado, é inadequado aceitar a minuta gerada pelo sistema sem a conferência crítica de sua aderência ao caso específico. Essa distinção, aparentemente simples, é frequentemente ignorada por profissionais sob pressão de volume de trabalho ou por falta de capacitação sobre o uso adequado da tecnologia.
4 O contraditório enfraquecido: quando a inteligência artificial responde à inteligência artificial
A transformação mais sensível nos processos judiciais ocorre quando as manifestações produzidas com auxílio de um modelo de IA são enfrentadas por decisões também elaboradas com auxílio de outro modelo de IA.
Forma-se um ambiente em que ambos os polos da relação processual utilizam ferramentas semelhantes. O princípio do contraditório deixa de ser apenas o diálogo entre sujeitos e passa a ser uma interação mediada por modelos automatizados.
Plataformas de apoio ao julgador (como aquelas desenvolvidas por alguns tribunais para organização de jurisprudência e para sugestão de minutas de decisão) utilizam tecnologia similar àquela empregada por plataformas de automação para advocacia, baseada em modelos de linguagem treinados em grandes volumes de dados jurídicos. Quando um advogado utiliza um modelo de IA para produzir uma petição inicial, o sistema processa informações fáticas do caso e gera o texto em um estilo que reproduz padrões de petições similares presentes em seus dados. Quando um juiz recebe essa petição e utiliza uma ferramenta de sugestão de minuta decisória, ela processa os argumentos da petição e gera a decisão em um estilo que reproduz padrões de decisões similares anteriores do mesmo julgador. O resultado é uma estrutura de comunicação processual inteiramente mediada por algoritmos que operam em linguagem comum aprendida de dados históricos.
Na prática, isso pode gerar um fenômeno de superficialidade recíproca. Petições padronizadas recebem decisões igualmente padronizadas. A resposta judicial enfrenta a tese genérica apresentada, mas não necessariamente o caso concreto. O advogado, por sua vez, pode interpor recurso também estruturado por modelo automatizado, com a reiteração de argumentos em formato semelhante ao anterior. O processo avança, mas o debate não se aprofunda.
O efeito de superficialidade é resultado de uma característica dos modelos de linguagem, que operam por predição de tokens (palavras ou fragmentos) baseada em padrões estatísticos dos dados de treinamento. Quando o algoritmo “lê” uma petição inicial com estrutura típica e argumentação genérica sobre tema comum, prediz qual será a resposta mais provável baseado em decisões similares no seu histórico. A resposta será típica, porque o padrão estatístico mais frequente é a decisão típica. Se a parte litigante tentar apresentar um argumento verdadeiramente inovador, é improvável que a ferramenta de apoio do julgador consiga “compreender” a sua relevância e estruturar uma resposta adequada (ainda que seja para destacar a questão e a ausência de julgamento anterior sobre o tema), porque tal argumento estaria fora dos padrões aprendidos. O sistema, por design, reforça a replicação do que é comum e homogêneo, razão pela qual desencoraja o que é singular e não se enquadra em seus padrões.
Esse cenário compromete a função substancial do contraditório. O objetivo do processo não é apenas o de permitir que as partes se manifestem, mas sim assegurar que as suas alegações sejam efetivamente consideradas. Quando a interação ocorre em nível excessivamente genérico, reduz-se a capacidade de o processo funcionar como um instrumento de solução individualizada do conflito.
Há também um impacto na qualidade das decisões. Se as alegações são amplas e pouco específicas, o juiz pode se sentir autorizado a responder de forma igualmente ampla. A fundamentação passa a tratar de categorias abstratas, sem examinar minuciosamente os fatos do processo. A decisão é formalmente válida, mas materialmente distante da controvérsia real.
Outro reflexo prático é o aumento de nulidades e de alegações de ausência de fundamentação. As partes passam a sustentar que seus argumentos não foram enfrentados, enquanto o juiz entende que enfrentou o que estava efetivamente delimitado na petição. Muitas vezes, a divergência decorre da dificuldade de identificar, em meio a textos extensos, quais pontos são relevantes e quais fatos são controvertidos.
O enfraquecimento do contraditório também afeta a confiança das partes na decisão. Quando a fundamentação reproduz fórmulas típicas de casos semelhantes, a parte pode perceber que a sua situação específica não foi devidamente considerada, o que incentiva a interposição de recursos e contribui para o prolongamento do litígio.
Diante desse quadro, a revisão humana é indispensável. Tanto o advogado quanto o juiz precisam assegurar que a tecnologia não substitua a análise concreta do caso. O contraditório efetivo depende de manifestações claras, delimitadas e verificáveis, e de decisões que enfrentem precisamente essas manifestações.
A utilização de inteligência artificial (e, especialmente, de modelos de IA generativa) no processo civil é irreversível. Contudo, para que o procedimento preserve as suas funções, é necessário evitar que o diálogo processual se transforme em mera troca de textos padronizados. O processo continua sendo um instrumento de solução de conflitos reais entre pessoas reais. A tecnologia deve servir a esse objetivo, e não o substituir por interações automatizadas descoladas da realidade do caso concreto.
5 Responsabilidade processual e dever de revisão humana
O uso da inteligência artificial no processo civil não altera o fato de que a responsabilidade pelos atos processuais continua sendo humana. A ferramenta pode auxiliar na elaboração de textos, na organização de argumentos e na identificação de precedentes, mas a assinatura da decisão e da petição permanece vinculada a um sujeito determinado (juiz, advogado, representante do Ministério Público ou da Defensoria Pública, perito etc.).
Para o magistrado, isso significa que a utilização de sistemas de apoio não dispensa a verificação concreta da adequação do texto ao caso específico. A revisão não pode ser meramente formal. É necessário conferir se os fatos descritos correspondem aos debatidos nos autos, se os argumentos relevantes foram enfrentados e se o acórdão citado efetivamente existe e se aplica à controvérsia. A responsabilidade institucional da decisão não se transfere ao sistema utilizado.
Do ponto de vista prático, isso exige uma mudança de postura. O juiz deve analisar a minuta sugerida pelo modelo de IA como ponto de partida, e não como um produto acabado e sem erros. A decisão final precisa refletir a escolha consciente dos fundamentos, com ajustes que evidenciem a análise individualizada do caso. A ausência dessa revisão pode gerar nulidade por deficiência de fundamentação ou comprometer a qualidade do controle recursal.
Para o advogado, o dever de revisão é igualmente rigoroso. A utilização de ferramentas de IA na redação de petições não exclui a responsabilidade técnica pelo conteúdo apresentado. Citações incorretas, acórdãos inexistentes ou argumentos incompatíveis com os documentos dos autos podem caracterizar falha profissional, independentemente de terem sido sugeridos pela ferramenta.
Além disso, a apresentação de teses sabidamente inadequadas ou a inserção de informações incorretas pode gerar consequências processuais, como o indeferimento da petição inicial, a aplicação de multa por litigância de má-fé ou o reconhecimento de ato atentatório à dignidade da justiça. A tecnologia não constitui justificativa para erros, tampouco é um excludente de responsabilidade.
Outro aspecto relevante diz respeito à ética profissional. O uso indiscriminado de IA pode levar à perda de controle sobre o conteúdo das peças processuais. O advogado que delega integralmente a elaboração da petição à ferramenta compromete não apenas a qualidade do processo, mas a própria credibilidade de sua atuação. A confiança do juiz na palavra do advogado depende da consistência técnica de suas manifestações.
Além disso, há questões de confidencialidade a serem consideradas. Quando um advogado utiliza uma plataforma de IA comercial para redigir a sua petição, dados do caso (fatos, nomes de partes, estratégia processual etc.) são transmitidos aos servidores da empresa. De acordo com o conteúdo dos termos de serviço (que nem sempre são integralmente lidos e compreendidos), essas informações podem ser utilizadas para treinar modelos, acessadas por terceiros ou retidas de modo indefinido.
A mesma lógica se aplica à atividade jurisdicional. A autoridade da decisão judicial está associada à percepção de que o caso foi efetivamente analisado. Se a fundamentação reproduz fórmulas padronizadas sem correspondência clara com os fatos do processo, a confiança institucional pode ser afetada.
Em termos práticos, o dever de revisão humana funciona como uma cláusula de segurança do uso da tecnologia. Ele não impede a utilização de modelos de IA, mas condiciona a sua legitimidade à atuação consciente e crítica do profissional do Direito. A ferramenta amplia a capacidade de produção textual, mas não substitui o juízo de adequação, pertinência e responsabilidade.
Conclusão
A inteligência artificial já integra a rotina do processo civil, tanto no Judiciário quanto na advocacia, pública e privada. A mudança não é apenas tecnológica, mas estrutural, considerando que o diálogo processual passou a ser mediado por ferramentas capazes de produzir textos complexos em escala. Esse novo cenário traz ganhos evidentes de eficiência, mas também impõe desafios práticos relevantes.
O principal risco não está na existência da tecnologia, mas na delegação acrítica de funções que exigem uma análise individualizada. Petições extensas e padronizadas dificultam a identificação das questões controvertidas. Decisões formalmente bem estruturadas podem deixar de enfrentar pontos específicos do caso concreto. O princípio do contraditório tende a enfraquecer quando a interação ocorre em nível excessivamente genérico.
Nesse contexto, o dever de fundamentação assume uma função ampliada, pois deixa de ser apenas um elemento formal da decisão e passa a atuar como um instrumento de controle da própria utilização das ferramentas de IA no processo. Exigir uma fundamentação efetiva significa exigir que o caso concreto seja analisado para além dos padrões textuais sugeridos por sistemas automatizados.
Da mesma forma, a responsabilidade profissional do advogado torna-se relevante para preservar a qualidade do processo. A tecnologia pode auxiliar na organização e na pesquisa, mas a validação final do conteúdo é sempre humana. O processo civil continua sendo espaço de responsabilidade técnica e ética.
A convivência entre inteligência artificial e processo é irreversível. O desafio prático não está em obstar o uso da IA (esforço que seria inútil e contraproducente), mas consiste em garantir que a tecnologia permaneça sendo utilizada como um instrumento de apoio e não se converta em substituta da análise crítica individualizada.
A inteligência artificial, em si, não é portadora de moralidade. As ferramentas de IA são neutras e seus efeitos dependem do modo como são utilizadas. Um modelo de IA utilizado para pesquisar acórdãos relevantes, a fim de economizar o tempo de pesquisa feito por uma pessoa, constitui um uso apropriado de tecnologia. A mesma ferramenta, utilizada para gerar centenas de petições idênticas destinadas a prejudicar litigantes por meio de volume de informações irrelevantes, constitui abuso de direito. A distinção entre uso apropriado e inadequado não deriva da tecnologia, mas das escolhas humanas sobre como utilizá-la.
O processo deve continuar sendo um meio de solução de conflitos concretos, orientado por clareza, precisão e responsabilidade. A inteligência artificial pode acelerar o procedimento e aumentar a capacidade de processamento de informações, mas somente a atuação consciente de juízes e advogados assegura que a decisão final continue sendo o produto de uma reflexão jurídica efetiva.
Referências
CARDOSO, Oscar Valente. As três vinculações da fundamentação das decisões judiciais no processo civil: pedidos, provas e precedentes. São Paulo: Dialética, 2022.
CARDOSO, Oscar Valente. Inteligência artificial, direito e processo. São Paulo: Dialética, 2024.
Notas
1 Sobre o assunto: CARDOSO, Oscar Valente. Inteligência artificial, direito e processo. São Paulo: Dialética, 2024.
2 Acerca do tema desenvolvido neste tópico: CARDOSO, Oscar Valente. As três vinculações da fundamentação das decisões judiciais no processo civil: pedidos, provas e precedentes. São Paulo: Dialética, 2022.
Direito Hoje
Outras publicações da Emagis:
| Pesquise nas publicações da Emagis: |
O espaço Direito Hoje, editado pela Emagis, tem o objetivo de trazer mais dinamismo à divulgação da produção textual dos magistrados, com a publicação online de artigos que tratem de questões emergentes no Direito nacional e internacional.
EXPEDIENTE
Edição
Escola de Magistrados e Servidores do TRF da 4ª Região
Diretor da Emagis
Desembargador Federal Cândido Alfredo Silva Leal Júnior
Vice-Diretor da Emagis
Desembargador Federal Luiz Carlos Canalli
Conselho Consultivo da Emagis
Desembargador Federal Osni Cardoso Filho
Desembargadora Federal Taís Schilling Ferraz
Assessoria da Emagis
Isabel Cristina Lima Selau
Supervisão da Seção de Publicações
Arlete Hartmann
Revisão e Formatação
Leonardo Schneider
Marina Spadaro Jacques
Web Design
Ricardo Lisboa Pegorini
Tribunal Regional Federal da 4ª Região
| Rua Otávio Francisco Caruso da Rocha, 300 | CEP 90.010-395 | Porto Alegre | RS |
www.trf4.jus.br/emagis
revista@trf4.jus.br









