Golpes com voz de IA: 3 formas de identificar fraudes telefônicas que imitam parentes pedindo dinheiro | Atlântida
logo atlântida

AO VIVO

Futuro do Mundo

Cuidado com o golpe

Golpes com voz de IA: 3 formas de identificar fraudes telefônicas que imitam parentes pedindo dinheiro

O uso de inteligência artificial para clonar vozes em chamadas telefônicas cria novos desafios de segurança e exige atenção redobrada dos usuários

21/01/2026 - 13h00min

Reprodução/Pexels
Confira dicas para não cair em golpes.

Receber uma ligação de um familiar em apuros pedindo ajuda financeira é uma situação que gera pânico imediato, e é exatamente com essa reação emocional que os golpistas contam. Antigamente, essas fraudes dependiam de uma atuação convincente do criminoso ou de uma qualidade de ligação ruim para disfarçar a voz, mas o avanço tecnológico mudou esse cenário. Hoje, softwares de inteligência artificial conseguem clonar a voz de uma pessoa com poucos segundos de áudio, tornando a abordagem extremamente realista e difícil de distinguir.

Esse tipo de crime, conhecido como vishing (fraude cibernética), tornou-se mais sofisticado e acessível. A captura da voz pode ocorrer por meio de vídeos em redes sociais ou até mesmo através de "ligações mudas", onde o objetivo é apenas gravar a resposta de quem atende para treinar a IA. 

Diante dessa nova realidade, é fundamental entender os mecanismos por trás dessas chamadas para não ser pego de surpresa. Neste texto, nós vamos analisar três principais pontos que envolvem esse tema.

1. A mecânica da clonagem de voz

Para que a fraude aconteça, o primeiro passo dos criminosos é obter uma amostra da voz da vítima. Isso é feito frequentemente através de serviços de deepfake que processam áudios curtos. 

Especialistas apontam que, em alguns casos, apenas três segundos de gravação são suficientes para gerar uma cópia convincente, capaz de falar qualquer frase digitada pelo golpista. Uma tática comum para essa coleta é a "ligação muda": o usuário atende, fala "alô" ou se identifica, e o criminoso grava essa interação antes de desligar, utilizando o material para treinar o software.

Além das ligações, a exposição nas redes sociais alimenta essa indústria de fraudes. Vídeos e áudios compartilhados publicamente no Instagram, TikTok ou Facebook servem como banco de dados para os criminosos. Ao capturar a voz de um jovem em um vídeo, por exemplo, os golpistas podem ligar para os pais ou avós simulando um sequestro ou um acidente, utilizando a familiaridade da voz para impedir que a vítima raciocine com clareza.

2. Sinais de alerta e pressão psicológica

Nesse cenário, identificar o golpe exige atenção a detalhes que vão além da semelhança vocal. O principal indicador costuma ser o senso de urgência extremo. Os criminosos criam narrativas de emergência, como prisões, acidentes de carro ou problemas hospitalares, para pressionar a vítima a realizar transferências bancárias imediatas, sem dar tempo para verificação. A escolha dos alvos também não é aleatória; idosos e familiares próximos são preferenciais, pois tendem a confiar mais na percepção auditiva e a agir pelo instinto de proteção.

Apesar da sofisticação, a tecnologia ainda pode apresentar falhas. É importante notar se a voz apresenta um tom excessivamente monótono, pausas não naturais ou falta de emoção condizente com a situação narrada, embora as IAs estejam evoluindo para simular sentimentos. 

Outro ponto de atenção são as inconsistências na conversa; como o golpista está usando um software para gerar as falas, ele pode evitar responder a perguntas específicas ou tentar desviar o assunto quando questionado sobre detalhes pessoais que apenas o familiar verdadeiro saberia.

3. Estratégias de prevenção e defesa

Para nos protegermos, a adoção de protocolos de segurança familiar tornou-se uma medida necessária. Especialistas recomendam a criação de uma "palavra de segurança" ou senha verbal, conhecida apenas pelo núcleo familiar. Caso receba uma ligação de emergência, o usuário deve pedir essa palavra-chave; se o interlocutor não souber responder, a chance de ser um golpe gerado por IA é altíssima. 

Além disso, a regra de ouro permanece: ao receber um pedido urgente de dinheiro, deve-se desligar o telefone imediatamente e retornar a ligação para o número oficial do contato salvo na agenda, ou tentar uma videochamada para confirmação visual.

Outra medida preventiva envolve a configuração dos dispositivos e a higiene digital. Programar o celular para silenciar ou bloquear chamadas de números desconhecidos ajuda a evitar o contato inicial, inclusive as ligações mudas usadas para captar a voz. Também vale considerar restringir a privacidade de postagens em redes sociais, limitando quem tem acesso a vídeos e áudios pessoais, dificultando assim a coleta de dados biométricos por parte dos estelionatários.

A tecnologia de clonagem de voz transformou a maneira como precisamos lidar com a segurança telefônica, exigindo que a desconfiança seja nossa primeira reação a pedidos inusitados, mesmo que soem familiares.


MAIS SOBRE