ChatGPT vira sócio de escritório de advocacia

ChatGPT vira sócio de escritório de advocacia

O escritório Fulano, Sicrano & Beltrano Advogados Associados funcionava há mais de dez anos no mesmo andar de um prédio antigo no centro. Três sócios, dois estagiários rotativos e um sistema de gestão que parecia ter parado no tempo. O problema não era a advocacia, era o tempo. Clientes demais, causas pequenas demais, prazos curtos demais.

Quando um deles descobriu uma ferramenta de inteligência artificial generativa para automação jurídica, parecia a salvação. A promessa era tentadora: Automatize minutas, petições simples e contratos padrão em segundos. O software produzia textos impecáveis, cheios de citações, referências, linguagem técnica. E o melhor: sem café, sem sono e sem erro de digitação.

Nos primeiros dias, o entusiasmo era quase comovente. A IA redigia notificações extrajudiciais, contratos de confidencialidade, recursos administrativos. Os sócios revisavam tudo, claro. Mas com o tempo, o "claro" virou "eventualmente".

O escritório se acostumou à velocidade e resolveu demitir os estagiários, agora, as petições que antes levavam três horas, eram enviadas em quinze minutos. Aproveitou o case de sucesso e expandiu a inteligência artificial para o atendimento ao cliente, demitindo a secretária. O controle de qualidade, por outro lado, virou artigo de luxo. Um dos sócios chegou a dizer, meio brincando: "Se ela erra, pelo menos erra rápido."

A frase envelheceu mal.

O primeiro problema surgiu discretamente. Um juiz de uma vara cível do interior devolveu uma petição com um despacho curto e frio: "O precedente citado não existe. O artigo mencionado tampouco."

A princípio, acharam que fosse erro de formatação. Mas o sistema confirmava: o texto era da IA. O "precedente" era fruto de pura invenção, uma alucinação jurídica com aparência de autoridade. Tentaram se justificar, disseram que foi uma revisão falha de uma ferramenta que usava o ChatGPT. Mas o magistrado, experiente, registrou o episódio no despacho público.

O cliente, um empresário que adorava pesquisar seu próprio nome no Google, encontrou o documento. Dias depois, o escritório amanheceu com uma avaliação de uma estrela: "Contratei advogados, mas parece que terceirizaram meu caso pra um robô alucinado. Se fosse para usar o ChatGPT, eu mesmo fazia!"

A partir daí, a reputação ficou abalada. E o pior: a verificação interna revelou que o erro não era único. Havia contratos com nomes de partes trocados, cláusulas duplicadas, menções a leis revogadas, e até uma petição inicial que descrevia fatos que nunca constaram nos autos.

Os estagiários, ironicamente demitidos meses antes, foram chamados de volta às pressas, agora para revisar o que a IA havia produzido nos últimos seis meses. Descobriram uma coleção de absurdos discretos: números de processo inexistentes, citações inventadas, até "ementas" de tribunais que nunca julgaram aquilo.

O modelo, aparentemente, havia aprendido sozinho a embelezar petições, combinando jurisprudências antigas com frases genéricas para parecer erudito.

Os sócios passaram dias tentando remediar os estragos. Enviaram retificações, protocolaram aditamentos, ligaram para juízes pedindo prazos, explicaram a clientes que "o sistema falhou" (como se o sistema tivesse vida própria).


🧠 O que aprendemos com isso

  • Supervisão humana é indelegável. Modelos generativos podem auxiliar, mas a responsabilidade técnica e ética permanece integralmente com o profissional. Quando se trabalha com ChatGPT (ou similar) sem protocolos claros de revisão e validação, qualquer ganho de eficiência se converte em vulnerabilidade.
  • Confiabilidade não é estética. Textos juridicamente incorretos podem parecer convincentes; revisão factual e verificação de fontes são etapas obrigatórias. O dano causado por erros automatizados se propaga mais rápido que qualquer petição eletrônica.
  • Transparência e rastreabilidade são essenciais. Cada documento produzido por IA deve permitir auditoria de origem, autoria e revisão.

Christopher Kraus

Especialista em internet e fundador da Qualidade.co, atua como UX Designer, Full Stack Developer e Tech Advisor há mais de 20 anos. Apaixonado por publicidade, tecnologia e boas histórias, transforma caos digital em aprendizado e sistemas complexos em experiências simples. Já viu de perto muitos bugs engraçados, golpes digitais e ideias geniais que deram errado, hoje escreve sobre isso com humor e propósito.

Deixar um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *