Tecnologia permite criar áudios falsos a partir de conteúdos das redes sociais, dificultando a identificação da fraude
![]() |
| (Foto: Hemmyle Oliveira/Correio Goiano) |
Golpistas têm recorrido ao uso de inteligência artificial
para criar áudios falsos e enganar vítimas. De acordo com autoridades policiais
de diferentes estados do Brasil, com poucos segundos de gravação é possível
copiar a voz de pessoas reais e usá-las em golpes.
A prática geralmente começa com o envio de mensagens de texto pelo WhatsApp, a partir de um número desconhecido. Os criminosos utilizam a foto de um familiar, amigo ou pessoa conhecida e informam que houve troca de telefone. Após estabelecer contato e conquistar a confiança da vítima, passam a enviar áudios com uma voz praticamente idêntica à da pessoa retratada na foto, solicitando dinheiro para o pagamento de uma suposta conta ou emergência. O áudio, no entanto, nunca foi gravado pela pessoa verdadeira.
Segundo relatos das vítimas, o nível de realismo impressiona e dificulta a identificação imediata do golpe. As autoridades acreditam que as vozes sejam clonadas a partir de vídeos publicados em redes sociais ou até mesmo de áudios reais compartilhados em aplicativos de mensagens, como o próprio WhatsApp. Não é necessário que a pessoa grave algo diretamente para os golpistas, já que a própria internet reúne vestígios suficientes da vida de qualquer usuário, como voz, imagem e vídeo disponíveis em perfis públicos.
Diante do aumento desse tipo de crime, a orientação é desconfiar sempre de mensagens que informem troca de número ou façam pedidos de dinheiro. As autoridades recomendam confirmar a informação por outro meio de contato, evitar manter perfis abertos com grande quantidade de vídeos e áudios e registrar boletim de ocorrência, mesmo quando o prejuízo financeiro for pequeno.
O registro policial pode contribuir para identificar conexões entre diferentes golpes e possíveis associações criminosas, auxiliando nas investigações e no combate a esse tipo de fraude.

0 Comentários