A inteligência artificial (IA) deixou de ser apenas uma promessa tecnológica e tornou-se parte indissociável do cotidiano social e empresarial, trazendo novos desafios ao direito. 

Se, por um lado, essa tecnologia abre espaço para inovações, por outro, pode ocasionar graves riscos nas relações de consumo, especialmente em relação às empresas que trabalham com comércio eletrônico, redes sociais ou usam estratégias de automação para vender seus produtos e serviços.

Um dos exemplos mais crescentes é o chamado “deepfake”. O termo vem do inglês e significa: profundo (deep) e falso (fake). Trata-se de vídeo, imagem ou áudio criado ou alterado com a ajuda da IA para simular situações que nunca ocorreram. 

É possível, por exemplo, gerar um vídeo de um influenciador recomendando um produto que ele nunca usou ou até mesmo criar uma falsa oferta em nome de uma loja. O resultado é um conteúdo tão convincente que está sendo utilizado para criar propagandas falsas, fraudes financeiras e golpes digitais.

 Embora frequentemente associados a escândalos de fake news e práticas fraudulentas, os deepfakes também vêm alcançando o mercado de consumo. Seus efeitos recaem diretamente sobre o consumidor, parte vulnerável por definição legal, que pode ser induzido a erro por meio de publicidade enganosa ou levado a realizar transações fraudulentas. Além disso, atingem as próprias empresas, que sofrem danos reputacionais e econômicos, e podem ainda ser responsabilizadas civilmente quando a fraude ocorre em seu ecossistema digital.

Diante disso, quem responde pelos danos quando o consumidor é induzido em erro por deepfakes? Essa não é uma questão fácil de ser respondida. A dificuldade prática está em distinguir o agente causador do dano (empresa, terceiro fraudador ou até mesmo o consumidor enganado) e aplicar corretamente a legislação.

O Código de Defesa do Consumidor – Lei nº 8.078, visa a proteção do consumidor com base na vulnerabilidade, boa-fé e transparência, valores que continuam relevantes no mundo digital e que mantêm plena aplicabilidade, destacando-se: 

  • Publicidade enganosa (art. 37): se uma empresa utiliza deepfakes ou IA como estratégia de marketing para veicular propaganda falsa, poderá responder pela prática abusiva.

  • Responsabilidade objetiva (art. 12 e 14): o fornecedor/fabricante responde pelos danos causados ao consumidor independentemente de culpa, inclusive quando decorrentes de falhas em sistemas automatizados. Porém, se decorrentes de ato de terceiro (nesse caso pode ser até o consumidor), a empresa poderá não ser responsabilizada (arts. 12, §3º, III e 14, §3º, II), hipótese que exige análise probatória minuciosa.

  • Informação clara (art. 6º, III): o consumidor tem direito a saber se está interagindo com um robô, uma IA ou se aquele conteúdo foi manipulado digitalmente. A omissão pode gerar responsabilidade civil. 

Portanto, a boa-fé objetiva e o princípio da transparência funcionam como parâmetros essenciais para delimitar a responsabilidade das partes envolvidas. Assim, para mitigar riscos jurídicos e proteger sua imagem, empresas devem estruturar políticas preventivas e mecanismos de resposta, tais como:

  • Transparência tecnológica: Informar claramente quando um conteúdo é gerado por IA; 

  • Governança e moderação de conteúdo: monitorar publicações em plataformas próprias e coibir o uso indevido por terceiros;

  • Treinamento e protocolos internos: capacitar colaboradores para identificar e lidar com situações de fraude digital;e

  • Canais de denúncia e resposta imediata: estabelecer fluxos ágeis de comunicação e solução para vítimas de deepfakes.


Essas medidas não apenas reduzem riscos de responsabilização civil, como também reforçam a confiança do público.

Já em relação ao consumidor, importante que este fique atento para não cair em golpes, considerando a dificuldade de reaver os prejuízos e localização dos responsáveis pela divulgação indevida do conteúdo. Algumas dicas para identificar uma deepfake é: i) movimentos faciais estranhos; ii) áudio artificial; ii) iluminação e sombras incoerentes e erros em detalhes. 

A inteligência artificial é uma ferramenta poderosa e, quando bem utilizada, traz ganhos significativos, mas exige responsabilidade jurídica e ética. O uso irresponsável, especialmente na forma de deepfakes, pode gerar responsabilização jurídica. Empresas devem adotar postura proativa de compliance digital, enquanto consumidores precisam estar alerta para reconhecer indícios de manipulação. No equilíbrio entre inovação tecnológica, ética e responsabilidade jurídica, encontra-se o caminho para preservar a confiança no mercado digital.


Anna Carolina Gouveia Marques Silva – advogada 

annagouveia@jbmlaw.com.br