- Resumo IA
• Deep fake mistura diversão e crime, usando IA para criar conteúdos falsos e realistas.
• Golpistas clonar vozes com poucos segundos de áudio, extraídos de redes sociais.
• Deep fakes são usados em fraudes financeiras e pornografia não consensual.
• Perfis públicos são alvos; proteção digital é essencial para evitar clonagem.
• Leis brasileiras punem crimes com deep fakes, mas identificação de autores é difícil.
• Desconfiança é crucial para proteção jurídica e financeira contra deep fakes.Observação: O resumo é gerado por IA e revisado pela redação.

O termo deep fake se tornou, nos últimos anos, um conceito que transita no limite entre a diversão e o crime. Afinal, imagine receber uma mensagem de áudio desesperada da sua mãe pelo WhatsApp, pedindo dinheiro rápido porque o carro quebrou em uma estrada deserta.
De modo geral, a voz é inconfundível. A entonação, o sotaque, a respiração entre as palavras. Além disso, tudo bate perfeitamente. Você, sem pensar duas vezes, faz a transferência via PIX. Contudo, minutos depois, você liga para ela apenas para descobrir que ela está em casa, segura, e nunca enviou áudio algum. Você não enlouqueceu: você acabou de ser vítima de um crime sintético.
O que antes parecia roteiro de ficção científica agora é uma indústria criminosa altamente lucrativa. Com o avanço assustador da inteligência artificial generativa, os golpistas deixaram de roubar apenas senhas; agora eles roubam identidades inteiras.
Para entender como essa tecnologia opera nas sombras da internet e quais são as saídas legais para se proteger, a Coluna Pixels e Pessoas contou com a orientação do especialista em Direito Constitucional, Marcos André Paes de Vilhena e trouxe exemplos reais dessa modalidade de crime que cresce a cada dia. Acompanhe e confira o que você precisa saber sobre o sequestro virtual da sua voz e da sua imagem.

Principais dúvidas sobre deep fake
O que são exatamente crimes sintéticos?
Como os golpistas conseguem clonar a minha voz?
O que é um deep fake de imagem e vídeo?
Quem corre mais risco de sofrer esse golpe?
Os bancos e a polícia não barram isso?
É possível detectar se um áudio ou vídeo é deepfake?
Como posso proteger minha voz e minha imagem de serem clonadas?
Existe lei no Brasil que pune o uso de deepfake em crimes?
Mas afinal, o que é deep fake?
Em síntese, o deep fake é uma técnica de inteligência artificial que utiliza redes neurais (em particular, a Generative Adversarial Network– GAN) para criar vídeos, áudios ou imagens falsos que parecem autênticos. O termo combina “deep learning” (aprendizado profundo) e “fake” (falso).
Essencialmente, a IA sobrepõe o rosto ou a voz de uma pessoa em um material de origem, criando uma simulação hiper-realista. Entretanto, a precisão é tal que poucos segundos de material original são suficientes para treinar o modelo e sintetizar conteúdos falsos com alta credibilidade.

Deep fake e usos legais
Primeiramente, é importante entender que o uso de deep fake, por si só, é legal quando há consentimento explícito das pessoas envolvidas e quando o conteúdo gerado não infringe direitos autorais, de imagem, ou a honra de terceiros.
Além disso, seu uso mais comum e aceito é na indústria do entretenimento e na criação de conteúdo humorístico/paródia, desde que claramente identificados como falsos. Ou seja, a tecnologia é valiosa em pesquisas científicas e para a criação de avatares digitais em treinamentos e simulações corporativas, oferecendo uma ferramenta poderosa para inovações visuais e de comunicação.
Riscos legais do deep fake e cuidados para não se cometer crimes
O risco legal surge quando o deep fake é usado sem consentimento ou para fins ilícitos. Por exemplo, a criação de pornografia não consensual (vingança pornográfica), difamação, extorsão ou fraude financeira configura crime grave.
No Brasil, embora não haja uma lei específica para deep fake, a prática se enquadra em crimes já previstos no Código Penal, como estelionato, crimes contra a honra (calúnia, difamação) e danos morais. O Projeto de Lei da IA (PL 2338/2023) em tramitação busca preencher o vácuo, mas a identificação e punição da autoria continuam sendo o maior desafio.
Leia também | Responsabilidade jurídica quando a IA erra
A visão jurídica: como se defender do que não é real
O grande desafio da Justiça atual é que a tecnologia avança a passos largos, enquanto as leis costumam andar de carruagem. O advogado Marcos André alerta que o vácuo legislativo específico para IA dificulta, mas não impede a punição.
“A lei brasileira ainda está em processo de adaptação, com o Projeto de Lei da Inteligência Artificial (PL 2338/2023) em tramitação no Senado. Contudo, o crime fim já tem punição. Se usaram sua voz para roubar dinheiro, é estelionato. Se usaram seu rosto em um vídeo difamatório, temos crimes contra a honra e danos morais severos”, explica Marcos André.
Porém, a dificuldade real não é a falta de crime no Código Penal, mas sim a identificação da autoria, já que os criminosos usam servidores estrangeiros e contas laranjas. Por isso, a defesa primária deve focar em dificultar o acesso aos seus dados biométricos.
Para se blindar, o especialista recomenda atitudes drásticas, mas necessárias na era digital.

Em resumo, no submundo dos crimes sintéticos, a velha máxima de “ver para crer” perdeu a validade. Ou seja, na internet de hoje, desconfiar dos próprios olhos e ouvidos tornou-se a primeira e mais importante camada de proteção jurídica e financeira que você pode ter.

















