Tribunais de diversos países estão enfrentando um novo desafio: petições judiciais escritas com auxílio de inteligência artificial e recheadas de erros, incluindo citações de casos que nunca existiram.
O fenômeno, apontado por advogados e registros públicos, acende um alerta sobre os riscos de confiar cegamente nas ferramentas de IA, como mostra a Associated Press.

“Alucinações” jurídicas preocupam especialistas
- Segundo o advogado e cientista de dados francês Damien Charlotin, pesquisador da HEC Paris, ao menos 490 petições com “alucinações” (informações falsas geradas por IA) foram registradas apenas nos últimos seis meses.
- “Até mesmo profissionais experientes podem cair nessas armadilhas. A IA é maravilhosa, mas também perigosa”, afirmou.
- Em alguns casos, como o de um advogado da MyPillow Inc. nos EUA, juízes chegaram a aplicar multas após identificar dezenas de citações incorretas.
Leia mais:
- ChatGPT: OpenAI explorou trabalhadores quenianos para identificarem conteúdos ilegais e criminosos
- Google pode anunciar rival para o ChatGPT em evento online; veja data
- O que é ChatGPT e como acessar a inteligência artificial em português

IA como assistente – não como substituta
Especialistas recomendam tratar a IA como um apoio de produtividade, e não como uma substituta para o julgamento humano. “Pense nela como uma ferramenta que melhora o fluxo de trabalho”, diz Maria Flynn, CEO da organização Jobs for the Future.
Ela ressalta a importância da verificação manual das respostas: “A IA pode confundir fatos, e cabe ao usuário conferir cada informação antes de confiar nela.” Além disso, advogados alertam para o cuidado com dados confidenciais e gravações automáticas de reuniões, que podem violar regras de privacidade.

O post Juízes alertam para o uso indevido da IA em petições judiciais apareceu primeiro em Olhar Digital.

