top of page

Golpes via IA: como deepfakes jurídicos podem induzir contratos fraudulentos

  • 10 de jul. de 2025
  • 5 min de leitura

Atualizado: 12 de jul. de 2025


alerta digital

Golpes via IA: como deepfakes jurídicos podem induzir contratos fraudulentos


A inteligência artificial (IA) vem promovendo avanços consideráveis em diferentes setores da sociedade, mas junto às suas promessas vêm os riscos. No mundo jurídico, uma das manifestações mais inquietantes dessa nova era é o uso de deepfakes - vídeos, áudios ou imagens manipuladas por algoritmos capazes de replicar vozes, expressões faciais e gestos humanos com realismo quase indetectável.


Mais do que uma curiosidade tecnológica, os deepfakes representam uma nova forma de golpe: o uso de falsificações ultrarrealistas para induzir vítimas à celebração de contratos jurídicos fraudulentos, com todos os efeitos civis e patrimoniais que isso implica.

 

A nova face do estelionato: a fraude por simulação digital


isca digital

A utilização de imagens falsas no ambiente contratual traz uma camada de complexidade inédita à prática de golpes. Tradicionalmente, o estelionatário se disfarçava com documentos falsos, álibis convincentes ou identidades forjadas. Hoje, ele não precisa sequer estar presente. Um vídeo artificial com a imagem de uma autoridade jurídica, de um “cliente”, ou de um sócio da empresa, é suficiente para gerar confiança e induzir a parte a assinar um contrato, transferir valores ou fornecer dados sensíveis.


Esse tipo de prática não é mais teórica. Em 2021, no Reino Unido, uma subsidiária de uma empresa de energia foi enganada por uma ligação telefônica em que a voz do CEO da matriz - perfeitamente clonada - solicitava uma transferência urgente. O golpe causou um prejuízo de 243 mil euros.


A tendência é que vídeos falsos se tornem o próximo estágio dessa engenharia social, em especial no Brasil, onde os contratos digitais, sem reunião presencial, se tornaram norma após a pandemia.

 

Consentimento viciado e a simulação algorítmica


direito digital

O Código Civil Brasileiro prevê, no artigo 138, que o erro substancial pode anular o negócio jurídico. O erro, nesse contexto, é definido como a falsa percepção da realidade, suficiente para viciar a vontade da parte. Já o artigo 145 trata do dolo, quando a parte é induzida ou mantida em erro por artifício de outrem.


Deepfakes, embora tecnológicos, são artifícios dolosos no sentido mais clássico da doutrina. Segundo Maria Helena Diniz, o dolo ocorre “quando há intenção de enganar, ardil, manobra, artifício ou qualquer meio malicioso para iludir a parte, levando-a a consentir em algo que, em situação normal, não aceitaria”.


Assim, a parte que celebra um contrato com base em uma videochamada falsa, induzida por um suposto advogado ou representante jurídico, está sob o domínio de um erro substancial, com elemento doloso. O contrato, nesse caso, é passível de anulação judicial, com possibilidade de reparação de danos materiais e morais.

 

A jurisprudência começa a reagir


Embora ainda não existam decisões específicas sobre deepfakes, a jurisprudência brasileira já vem reconhecendo a validade da anulação de contratos digitais quando há vício de identidade ou induzimento ao erro.


Em recente julgado do TJSP (Apelação Cível nº 100xxxx-89.2021.8.26.0000), a corte anulou um contrato de financiamento eletrônico em que uma terceira pessoa se passou pela vítima em ambiente digital. O tribunal entendeu que, mesmo havendo assinatura eletrônica, o negócio era nulo diante da ausência de vontade real do titular.


Esse precedente, embora não envolva IA diretamente, pode e deve ser interpretado analogicamente em casos de manipulação por deepfake. A simulação digital nada mais é que uma evolução tecnológica do mesmo vício de identidade.


LGPD: a imagem como dado pessoal e a responsabilidade digital

judiciário on-line

A Lei Geral de Proteção de Dados (LGPD) também tem um papel relevante na abordagem do tema. A voz, o rosto e os trejeitos de uma pessoa são considerados dados pessoais sensíveis, conforme o artigo 5º, II da Lei 13.709/18.


A manipulação e disseminação desses dados sem consentimento, especialmente para criar conteúdos falsos, fere frontalmente os princípios da finalidade, necessidade, segurança e transparência.


O artigo 42 da LGPD dispõe que o controlador ou operador que causar dano patrimonial, moral, individual ou coletivo em decorrência de tratamento ilícito de dados será obrigado a repará-lo. Assim, se uma empresa utiliza algoritmos para gerar ou disseminar deepfakes e isso resulta em prejuízo a terceiros, ela poderá ser responsabilizada civilmente, inclusive por omissão de medidas de prevenção adequadas.

 

Marco Civil da Internet: dever de identificação e rastreabilidade


Outro diploma importante é o Marco Civil da Internet (Lei nº 12.965/2014), que determina, no artigo 10, que os provedores devem manter registros de acesso e colaborar com investigações. Em casos de fraude por deepfake, essas informações podem ser essenciais para rastrear a origem do conteúdo manipulado, identificar autores e coautores, e responsabilizá-los civil e penalmente.


O Marco Civil também garante, no artigo , o direito à inviolabilidade da imagem e da privacidade do usuário. A manipulação de sua aparência para forjar negociações contratuais é uma violação grave a esse direito, sujeita a indenização por dano moral, conforme entendimento já consolidado no STJ.

 

Desafios probatórios e o papel do advogado


advogado digital

Um dos maiores desafios da vítima de um contrato baseado em deepfake é a produção de prova pericial qualificada. Detectar alterações digitais exige conhecimento técnico, equipamentos especializados e perícia forense em vídeos e áudios.


Aqui, o papel do advogado é crucial. Cabe à defesa solicitar inversão do ônus da prova, com base no artigo 373, §1º do CPC, e no princípio da vulnerabilidade técnica da parte. É também possível requerer a nomeação de peritos judiciais e a quebra de sigilo de IPs ou provedores, com base nos artigos do Marco Civil.


O advogado que atua de forma estratégica nesses casos não apenas resguarda os interesses imediatos da vítima, mas também fortalece a jurisprudência e contribui para o amadurecimento jurídico frente à nova era digital.

 

E se o deepfake for usado por uma das partes?


Há uma nuance ainda mais delicada: e se for a própria parte contratante que utiliza deepfake para enganar a outra parte contratual? Imagine, por exemplo, uma empresa que simula a presença de um “jurista consultor” para dar legitimidade a um produto, ou que forja uma “reunião de diretoria” para pressionar um acordo.


Nesse caso, o dolo é ainda mais evidente, e o contrato pode ser anulado com base na má-fé objetiva, ferindo o artigo 113 do Código Civil, que obriga as partes a interpretarem o contrato conforme a boa-fé e os usos do mercado.


Além disso, há espaço para responsabilidade penal com base no artigo 171 do Código Penal, que trata do crime de estelionato, especialmente se houver obtenção de vantagem ilícita e induzimento ao erro.

 

Caminhos para prevenção: tecnologia e cautela jurídica


Do ponto de vista prático, prevenir fraudes com deepfake exige mais do que tecnologia. É necessária uma cultura de validação de identidade que vá além de videochamadas ou assinaturas digitais simples. Algumas boas práticas incluem:


  1. Verificação de identidade por múltiplos canais (token, biometria, confirmação verbal);

  2. Plataformas de assinatura com autenticação de dois fatores;

  3. Registro de logs, IPs e geolocalização;

  4. Análise comportamental de acesso.


Além disso, empresas e escritórios devem treinar equipes para reconhecer sinais de manipulação digital, especialmente em setores como financeiro, imobiliário e jurídico, onde contratos são fechados com frequência e urgência.


Conclusão: o Direito diante do espelho digital


judiciário e IA

Deepfakes desafiam a própria essência do Direito Contratual: a confiança mútua entre as partes. Quando a simulação se torna indistinguível da realidade, a tarefa do jurista não é apenas aplicar normas - mas reinterpretar conceitos à luz do novo.


Não se trata mais de proteger o consentimento apenas do engano humano, mas também de proteger a verdade da falsificação algorítmica.


A advocacia, nesse cenário, torna-se ainda mais relevante: como escudo contra o artificial, como ferramenta de reconstrução da verdade e como agente de educação preventiva. O futuro pode até ser simulado, mas a justiça não pode ser.

Comentários


bottom of page