Celebridades brasileiras sofrem golpes com deepfakes e IA

A rápida expansão da inteligência artificial (IA), especialmente no uso de deepfakes, tem gerado preocupações sobre a privacidade e segurança das pessoas. Em 2025, Anitta foi uma das vozes públicas a alertar sobre os riscos da tecnologia, ao compartilhar um vídeo onde conversava com uma versão digital de sua própria voz. A cantora destacou que essas tecnologias estão “roubando nossas características”, chamando atenção para o uso indevido de nossas imagens e vozes.

O uso de deepfakes tem se tornado cada vez mais comum entre criminosos. Um exemplo é a falsificação da voz do médico Drauzio Varella para vender medicamentos falsos, mostrando como a IA pode ser usada para fraudes.

Videos falsos com IA criam golpes com celebridades brasileiras.
Celebridades como Anitta e Marcos Mion são vítimas de golpes com IA e deepfakes. Saiba como reconhecer conteúdos falsos e se proteger |Foto: Reprodução/The Music Journal

Em entrevista à Forbes, Fabrício Carraro, especialista em inteligência artificial, explicou que isso não acontece só no Brasil, mas está se espalhando pelo mundo, principalmente devido à facilidade de acesso a ferramentas que permitem criar deepfakes com um smartphone em minutos.

Ele também pontuou que, devido ao grande número de pessoas nas redes sociais, o Brasil se tornou um lugar ideal para a disseminação de deepfakes, que podem ser usadas tanto para manipular a opinião pública quanto para criar vídeos de humor ou sátira.

Em 2024, a atriz Paolla Oliveira foi outra vítima desse problema. Ela denunciou que sua imagem e voz estavam sendo usadas sem autorização para espalhar mentiras e alertou sobre a importância de não acreditar em tudo o que vemos online.

Casos como o do apresentador William Bonner, cuja imagem foi manipulada em um vídeo falso para aplicar um golpe financeiro, mostram a seriedade do problema. Nos últimos anos, outras celebridades brasileiras, como Neymar, Eliana e Ivete Sangalo, também tiveram suas identidades clonadas digitalmente.

No entanto, as deepfakes não afetam apenas as pessoas famosas. Carraro mencionou que até adolescentes estão usando a tecnologia para criar vídeos humilhantes de colegas, e criminosos estão enganando famílias e extorquindo vítimas com vídeos íntimos falsos.

O aumento das deepfakes traz um grande desafio na era digital, onde as linhas entre o que é real e o que é falso podem ser facilmente borradas, gerando preocupações sobre o que podemos realmente confiar na internet.

O caso do apresentador Marcos Mion virou caso de justiça

Na última quinta-feira, 16 de janeiro, a Polícia Civil do Distrito Federal prendeu três pessoas suspeitas de utilizar deepfake, uma técnica de manipulação de imagens e sons com inteligência artificial, para realizar golpes.

A investigação foi desencadeada por 27 denúncias em apenas quatro dias, sendo que um vídeo falso com a imagem de Marcos Mion foi o principal motivador. No vídeo gerado pela IA, o apresentador anunciava uma promoção do restaurante Outback, mas ao clicar no link, as vítimas eram levadas a um site fraudulento.

A investigação revelou que o objetivo do golpe era obter informações pessoais para realizar fraudes financeiras.

Fabrício Carraro, explicou que figuras públicas são alvos frequentes desses golpes, já que seus nomes geram maior engajamento e repercussão. Ele também destacou que os criadores de deepfakes maliciosos buscam causar impacto, seja prejudicando a imagem da pessoa ou aumentando visualizações para aplicar fraudes.

Carraro ainda observou que o uso de deepfakes está se expandindo globalmente, impulsionado pelo fácil acesso às ferramentas de IA, o que permite que qualquer pessoa com um smartphone consiga gerar deepfakes em questão de minutos.

Como reconhecer conteúdos falsos?


Para evitar cair em golpes online, o especialista sugere adotar uma abordagem de “ceticismo crítico”. Isso envolve sempre duvidar da veracidade de vídeos, áudios ou imagens, mesmo que venham de fontes confiáveis, como amigos ou familiares.

Além disso, há algumas dicas práticas para identificar conteúdos criados por IA. Veja abaixo:

  • Confirme com fontes confiáveis: se algo parecer suspeito, procure confirmar a veracidade entrando em contato com a pessoa ou instituição envolvida, ou consultando fontes confiáveis.
  • Observe o movimento dos olhos e da boca: as deepfakes têm dificuldade em replicar movimentos naturais, como a movimentação dos olhos ou a sincronização dos lábios com a fala.
  • Preste atenção à iluminação e sombras: discrepâncias nessas áreas podem ser sinais de manipulação digital.
  • Verifique a qualidade do áudio: conteúdos gerados por IA podem soar artificiais, com entonações ou pausas estranhas.
  • Analise detalhes no rosto: observe as bordas do rosto ou áreas como o cabelo e os óculos, que podem ser indicativos de edição.
  • Preste atenção aos movimentos corporais: em vídeos, verifique se os gestos e movimentos do corpo são consistentes e naturais.
  • Questione mensagens sensacionalistas: golpistas muitas vezes usam deepfakes para criar sensações de urgência ou impacto.
  • Observe a resolução do vídeo: vídeos criados por IA muitas vezes têm uma qualidade inferior.

Leia também: Senado aprova marco regulatório da Inteligência Artificial

Atualize-se.
Receba Nossa Newsletter Semanal

Sugestões para você