O uso indiscriminado de inteligência artificial na advocacia brasileira já começa a produzir consequências concretas nos tribunais. Um alerta recente do Ministério Público de Contas do Estado de São Paulo (MPC-SP) revelou uma prática preocupante: petições contendo leis, jurisprudências e fundamentos jurídicos que simplesmente não existem.

O problema, que já resultou em multas, advertências e processos disciplinares em diversos tribunais do país, decorre da utilização de ferramentas de IA sem a devida supervisão técnica. Em muitos casos, advogados têm apresentado peças com referências fictícias, geradas por sistemas automatizados que produzem textos plausíveis, porém inverídicos.

Durante sessão do Tribunal de Contas paulista, a procuradora-geral Letícia Formoso Delsin Feres identificou inconsistências graves em processos analisados, incluindo citações legais inexistentes e dados incompatíveis com a realidade jurídica. Segundo ela, a prática pode induzir o julgador a erro, violar deveres de boa-fé e até configurar litigância de má-fé.

O fenômeno, conhecido como “alucinação jurídica por IA”, não se restringe a um caso isolado. Tribunais de diferentes regiões já registraram situações semelhantes. Em Santa Catarina, advogados foram advertidos e multados por apresentar jurisprudência fictícia. No Ceará, o Tribunal Regional do Trabalho aplicou penalidade de 2% sobre o valor da causa após constatar indícios de uso de inteligência artificial sem verificação. Em Minas Gerais e São Paulo, decisões semelhantes reforçam a tendência de responsabilização.

Especialistas apontam que o problema não está na tecnologia em si, mas na forma como ela vem sendo utilizada. Sistemas de IA generativa funcionam por previsão de linguagem e, quando não possuem dados confiáveis, podem criar respostas aparentemente corretas, mas juridicamente inexistentes.

Outro ponto sensível envolve a segurança da informação. Ao inserir dados em plataformas de IA, advogados podem expor informações sigilosas de clientes, estratégias processuais e documentos ainda não públicos, sem garantia de proteção adequada.

Desde 2024, a OAB editou diretrizes para o uso responsável da inteligência artificial na advocacia, recomendando verificação rigorosa das informações e supervisão humana constante. No entanto, a ausência de regulamentação específica e a rápida adoção dessas ferramentas indicam que muitos profissionais ainda não incorporaram essas cautelas à rotina.

O entendimento que começa a prevalecer nos tribunais é claro: a responsabilidade pelo conteúdo das peças permanece integralmente do advogado. A tecnologia não serve como justificativa para erros.

O avanço da inteligência artificial no Direito é irreversível, mas exige preparo técnico, ética e critérios rigorosos de validação. O alerta institucional é evidente: eficiência não pode substituir a verdade.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Banner de Consentimento de Cookies by Real Cookie Banner