Ocultar anuncios
Ao Vivo

19ª Reunião Orinária da Câmara de Ouro Preto-MG

Role para baixo para ler nossas matérias
Corrida / Atitude ALMG 01/10/2025
Saneouro 17/09/2025
PMOP 26/08/2025
Cooperouro 04/08/2025

Deep fake e o submundo dos crimes sintéticos: o risco de vozes e imagens clonadas por IA

O deep fake é uma prática de combinar "deep learning" (aprendizado profundo) e "fake" (falso) para manipular dados e cometer…
Data de publicação: 30/03/2026 19:30
Última atualização: 30/03/2026 17:08

O termo deep fake se tornou, nos últimos anos, um conceito que transita no limite entre a diversão e o crime. Afinal, imagine receber uma mensagem de áudio desesperada da sua mãe pelo WhatsApp, pedindo dinheiro rápido porque o carro quebrou em uma estrada deserta.

De modo geral, a voz é inconfundível. A entonação, o sotaque, a respiração entre as palavras. Além disso, tudo bate perfeitamente. Você, sem pensar duas vezes, faz a transferência via PIX. Contudo, minutos depois, você liga para ela apenas para descobrir que ela está em casa, segura, e nunca enviou áudio algum. Você não enlouqueceu: você acabou de ser vítima de um crime sintético.

O que antes parecia roteiro de ficção científica agora é uma indústria criminosa altamente lucrativa. Com o avanço assustador da inteligência artificial generativa, os golpistas deixaram de roubar apenas senhas; agora eles roubam identidades inteiras.

Para entender como essa tecnologia opera nas sombras da internet e quais são as saídas legais para se proteger, a Coluna Pixels e Pessoas contou com a orientação do especialista em Direito Constitucional, Marcos André Paes de Vilhena e trouxe exemplos reais dessa modalidade de crime que cresce a cada dia. Acompanhe e confira o que você precisa saber sobre o sequestro virtual da sua voz e da sua imagem.

Principais dúvidas sobre deep fake

O que são exatamente crimes sintéticos?
São fraudes, extorsões ou golpes praticados com o uso de inteligência artificial para criar conteúdos falsos, porém hiper-realistas. Segundo Marcos André, em vez de usar um pretexto escrito para te enganar, o submundo dos crimes sintéticos sintetiza áudios e vídeos (deep fakes) que simulam perfeitamente a existência ou a ação de uma pessoa real.
Como os golpistas conseguem clonar a minha voz?
Eles precisam de assustadores três a cinco segundos de áudio original seu. Para isso, softwares de IA disponíveis online capturam as nuances do seu timbre e criam um modelo capaz de “ler” qualquer texto digitado pelo criminoso usando a sua voz exata. Por fim, o material de base é facilmente extraído de vídeos abertos no TikTok, Instagram ou até mesmo quando você atende uma ligação desconhecida e diz apenas: “Alô, quem está falando?”.
O que é um deep fake de imagem e vídeo?
É a técnica de sobrepor o rosto de uma pessoa no corpo de outra em um vídeo, ou animar uma foto estática para que ela pareça falar e piscar. Além de fraudes financeiras (como burlar a biometria facial de bancos), o deepfake tem sido usado cruelmente para criar falsos vídeos íntimos (pornografia não consensual), destruindo reputações em poucas horas.
Quem corre mais risco de sofrer esse golpe?
Embora figuras públicas sejam alvos fáceis por terem muito material na internet, qualquer pessoa com redes sociais abertas é uma vítima em potencial. De modo geral, os criminosos muitas vezes miram em pessoas comuns porque as famílias tendem a questionar menos um pedido de socorro financeiro vindo de um parente próximo.
Os bancos e a polícia não barram isso?
As instituições estão em uma verdadeira corrida armamentista contra a IA. Segundo diretrizes de segurança da Febraban (Federação Brasileira de Bancos), os bancos atualizam constantemente seus sistemas de biometria (exigindo que o cliente sorria ou vire o rosto na câmera), mas os criminosos também aprimoram seus softwares. A prevenção, hoje, é muito mais comportamental do que tecnológica.
É possível detectar se um áudio ou vídeo é deepfake?
Tecnicamente, sim. Ferramentas especializadas analisam inconsistências em pixels, padrões de piscada, sombras e irregularidades na voz para identificar manipulações. Na prática, porém, essa detecção exige acesso ao arquivo original e conhecimento técnico. Para o cidadão comum, os sinais mais confiáveis são: leve borramento no contorno do rosto, voz excessivamente uniforme (sem respiração ou hesitações naturais) e, sobretudo, pedidos urgentes de dinheiro ou dados pessoais logo em seguida.
Como posso proteger minha voz e minha imagem de serem clonadas?
A proteção começa no comportamento digital: mantenha perfis no Instagram, TikTok e Facebook em modo privado e evite publicar vídeos longos com sua voz ou rosto em contas abertas ao público. Com a família e amigos próximos, combine uma palavra-código de segurança — uma sequência simples que só vocês conhecem — para confirmar a identidade em situações de urgência. Essa estratégia low-tech pode desmascarar um golpe de clonagem vocal em segundos, mesmo que o áudio falso soe absolutamente convincente.
Existe lei no Brasil que pune o uso de deepfake em crimes?
Sim, mas de forma ainda fragmentada. A Lei nº 14.532/2023 (Lei do Estelionato Digital) ampliou o alcance da legislação para golpes praticados por meios eletrônicos, podendo incluir fraudes com IA. Deepfakes de natureza sexual não consensual também são enquadrados na Lei nº 13.718/2018, com pena de até 5 anos de reclusão. Além disso, calúnia, difamação e extorsão praticadas com conteúdo sintético já são puníveis pelo Código Penal. Tramitam no Congresso propostas específicas para criminalizar a criação e a difusão de deepfakes manipulativos, mas até a aprovação desses projetos, a proteção jurídica depende da interpretação de leis existentes.

Mas afinal, o que é deep fake?

Em síntese, o deep fake é uma técnica de inteligência artificial que utiliza redes neurais (em particular, a Generative Adversarial Network– GAN) para criar vídeos, áudios ou imagens falsos que parecem autênticos. O termo combina “deep learning” (aprendizado profundo) e “fake” (falso).

Essencialmente, a IA sobrepõe o rosto ou a voz de uma pessoa em um material de origem, criando uma simulação hiper-realista. Entretanto, a precisão é tal que poucos segundos de material original são suficientes para treinar o modelo e sintetizar conteúdos falsos com alta credibilidade.

Jornal Voz Ativa Ouro Preto Mg Minas Gerais Op Materia Deep Fake Crimes Sinteticos

Deep fake e usos legais

Primeiramente, é importante entender que o uso de deep fake, por si só, é legal quando há consentimento explícito das pessoas envolvidas e quando o conteúdo gerado não infringe direitos autorais, de imagem, ou a honra de terceiros.

Além disso, seu uso mais comum e aceito é na indústria do entretenimento e na criação de conteúdo humorístico/paródia, desde que claramente identificados como falsos. Ou seja, a tecnologia é valiosa em pesquisas científicas e para a criação de avatares digitais em treinamentos e simulações corporativas, oferecendo uma ferramenta poderosa para inovações visuais e de comunicação.

Riscos legais do deep fake e cuidados para não se cometer crimes

O risco legal surge quando o deep fake é usado sem consentimento ou para fins ilícitos. Por exemplo, a criação de pornografia não consensual (vingança pornográfica), difamação, extorsão ou fraude financeira configura crime grave.

No Brasil, embora não haja uma lei específica para deep fake, a prática se enquadra em crimes já previstos no Código Penal, como estelionato, crimes contra a honra (calúnia, difamação) e danos morais. O Projeto de Lei da IA (PL 2338/2023) em tramitação busca preencher o vácuo, mas a identificação e punição da autoria continuam sendo o maior desafio.

Leia também | Responsabilidade jurídica quando a IA erra

A visão jurídica: como se defender do que não é real

O grande desafio da Justiça atual é que a tecnologia avança a passos largos, enquanto as leis costumam andar de carruagem. O advogado Marcos André alerta que o vácuo legislativo específico para IA dificulta, mas não impede a punição.

“A lei brasileira ainda está em processo de adaptação, com o Projeto de Lei da Inteligência Artificial (PL 2338/2023) em tramitação no Senado. Contudo, o crime fim já tem punição. Se usaram sua voz para roubar dinheiro, é estelionato. Se usaram seu rosto em um vídeo difamatório, temos crimes contra a honra e danos morais severos”, explica Marcos André.

Porém, a dificuldade real não é a falta de crime no Código Penal, mas sim a identificação da autoria, já que os criminosos usam servidores estrangeiros e contas laranjas. Por isso, a defesa primária deve focar em dificultar o acesso aos seus dados biométricos.

Para se blindar, o especialista recomenda atitudes drásticas, mas necessárias na era digital.

Jornal Voz Ativa Ouro Preto Mg Minas Gerais Op Materia Crimes Sinteticos Deep Fake E Como Se Proteger Jornal Voz Ativa

Em resumo, no submundo dos crimes sintéticos, a velha máxima de “ver para crer” perdeu a validade. Ou seja, na internet de hoje, desconfiar dos próprios olhos e ouvidos tornou-se a primeira e mais importante camada de proteção jurídica e financeira que você pode ter.

CTA IA Jornal Voz Ativa

Matérias Salvas