O avanço acelerado das ferramentas de inteligência artificial no meio jurídico voltou ao centro das atenções após uma decisão da Justiça de Goiás que chamou a atenção para os riscos do uso sem supervisão humana. Em Planaltina (GO), uma juíza determinou que um advogado refizesse integralmente a petição inicial de um processo ao identificar indícios claros de que o texto havia sido produzido por inteligência artificial de forma inadequada.
A decisão partiu da juíza Bruna de Oliveira Farias, titular da 1ª Vara Cível, de Família, de Sucessões e da Infância e Juventude da comarca. Ao analisar uma ação reivindicatória, a magistrada constatou falhas consideradas graves, que impediram o andamento regular do processo. Entre os problemas apontados estavam erros formais relevantes, contradições internas e linguagem incompatível com uma peça processual.
Ela constatou “vícios formais extremamente graves”. Segundo a juíza, o texto apresentava “características típicas de texto gerado por ferramenta de inteligência artificial sem a devida supervisão profissional”, como expressões próprias de “resposta de assistente virtual” e de material acadêmico, que não são adequadas para uma peça processual.
Outro ponto que chamou atenção foi a inconsistência na identificação das partes. Embora o processo indicasse formalmente um réu, o texto fazia referência reiterada a outra pessoa.
Diante do cenário, a magistrada concedeu prazo de 15 dias para que a inicial fosse corrigida, sob pena de indeferimento e extinção do processo sem análise do mérito. Além disso, determinou o envio de ofício à seccional da Ordem dos Advogados do Brasil (OAB) no Distrito Federal para comunicar a atuação profissional considerada irregular.
Na decisão, a juíza enfatizou que ferramentas de inteligência artificial podem ser utilizadas como apoio, mas jamais substituir o raciocínio jurídico do profissional. Ressaltou ainda que a responsabilidade pelo conteúdo apresentado em juízo é sempre do advogado, que deve conferir veracidade, coerência e adequação técnica ao texto produzido.
Casos semelhantes
O episódio em Goiás não é isolado. Tribunais de diferentes regiões do país têm se deparado com situações envolvendo o uso indevido de inteligência artificial, tanto por advogados quanto por integrantes do próprio Judiciário.
Em Santa Catarina, por exemplo, a Justiça aplicou multa por litigância de má-fé após identificar a apresentação de precedentes e citações doutrinárias inexistentes em um recurso. No Paraná, um tribunal deixou de conhecer um recurso ao constatar que as razões continham dezenas de julgados fictícios, atribuídos a tribunais superiores.
No âmbito dos tribunais superiores, o ministro Cristiano Zanin, do Supremo Tribunal Federal, determinou a aplicação de multa e a comunicação à OAB em um caso no qual foi apresentada uma decisão forjada, gerada por inteligência artificial, com tentativa de induzir o Judiciário a erro.
Também há episódios envolvendo magistrados. O Conselho Nacional de Justiça decidiu apurar uma sentença proferida por um juiz federal da 1ª Região que utilizou inteligência artificial para redigir parte da decisão e acabou fundamentando o entendimento em jurisprudência inexistente. O erro só foi descoberto após a parte vencida questionar a autenticidade das referências citadas.
Em outro caso, no Maranhão, a Corregedoria-Geral da Justiça instaurou sindicância contra um juiz cuja produtividade chamou a atenção: em apenas um mês, ele proferiu quase mil decisões, número muito acima da média da unidade. A apuração apontou sentenças com padrão textual uniforme, ausência de fundamentação adequada e uso de precedentes inexistentes, o que levantou suspeitas de uso inadequado de IA e gerou alertas sobre insegurança jurídica.

