Advocacia

Quando o advogado vira refém do algoritmo: a perigosa fantasia da tecnologia neutra no Direito

Por Priscila de Oliveira Spadinger*

Imagine a cena: um advogado peticiona com segurança, confiante no suporte de uma ferramenta de inteligência artificial. Anexa jurisprudências “sugeridas pela IA” e aguarda o julgamento. Dias depois, o tribunal nega o recurso e impõe multa por litigância de má-fé. O motivo? As decisões citadas não existem.

Essa história, infelizmente real, evidencia um problema que o ecossistema jurídico precisa encarar com urgência: o uso acrítico e apressado de tecnologias que prometem milagres, mas não entregam nem o básico — como veracidade. E, mais do que isso, nos faz refletir sobre uma ideia perigosa que vem se tornando mantra: a de que a tecnologia jurídica é “neutra”.

A crença de que algoritmos são objetivos, imparciais ou “mais confiáveis que humanos” ignora uma verdade incômoda: todo sistema é criado por pessoas — com seus vieses, suas escolhas técnicas e suas limitações. No campo jurídico, essa crença já causou danos concretos.

Estudos acadêmicos recentes, como os de O’Neil (2016) e Zuboff (2019), demonstram como sistemas opacos podem reforçar discriminações históricas e transferir a responsabilidade das decisões para caixas-pretas tecnológicas. No Brasil, casos de advogados sendo punidos por confiarem em IAs que inventaram jurisprudência escancaram esse risco — e revelam um problema de fundo: a falta de responsabilidade compartilhada pelas ferramentas que usamos.

Nem toda IA é igual. Aqui, faço uma distinção importante: nem toda IA é irresponsável. Tecnologias bem projetadas, com rigor técnico, curadoria jurídica e camadas múltiplas de validação, são não apenas seguras, são aliadas fundamentais da prática jurídica moderna.

Na CriaAI.com.br, LegalTech onde invisto através da nossa Holding Aleve LegalTech Ventures, adotamos uma arquitetura com mais de sete camadas integradas de IA generativa, justamente para mitigar o risco das chamadas alucinações jurídicas — respostas criadas pela IA que parecem verossímeis, mas não têm respaldo em dados reais.

Além disso, desenvolvemos filtros jurídicos treinados com base em doutrina, legislação nacional e jurisprudência verificada, com mecanismos internos de alerta para inconsistências ou lacunas de referência. Nossa missão é clara: tecnologia que empodera, não que compromete o profissional. Mas a responsabilidade pelo uso continua sendo humana.

O perigo está na terceirização do pensamento. A grande armadilha é acreditar que basta “apertar um botão” e a IA resolve tudo. Não resolve. O que vemos hoje é uma geração de operadores do Direito terceirizando a análise, a estratégia e até a ética para sistemas que não foram feitos para isso. Tecnologia sem consciência crítica é só velocidade com potencial de dano. Inovar com responsabilidade é o único caminho

Não estamos aqui para demonizar a inovação — mas para exigir um novo pacto ético e técnico. A legaltech brasileira tem potencial de ser referência global, mas isso só será possível se aliarmos potência tecnológica com curadoria jurídica, validação e, acima de tudo, responsabilidade profissional.

O futuro do Direito passa pela IA. Mas não qualquer IA. Passa pela inteligência que respeita o advogado, que protege o jurisdicionado, que fortalece a confiança no sistema de Justiça.

*Priscila de Oliveira Spadinger é advogada especialista em M&A, CEO da Aleve LegalTech Ventures e investidora anjo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.