Golpistas empregam inteligência artificial para imitar vozes de conhecidos, usando áudios de redes sociais em fraudes realistas que pedem dinheiro ou dados pessoais.
A inteligência artificial (IA), que revolucionou diversos setores nos últimos anos, também está sendo explorada por cibercriminosos em golpes cada vez mais elaborados. Uma prática em ascensão é a clonagem de voz, na qual a tecnologia é usada para replicar a fala de familiares ou amigos, enganando vítimas e obtendo vantagens financeiras ou informações confidenciais. A facilidade de acesso a trechos de áudio nas redes sociais tem ampliado a sofisticação e o alcance dessas fraudes.
Mecanismo da Clonagem de Voz
O processo depende de algoritmos de IA que analisam padrões vocais a partir de amostras curtas, muitas vezes de poucos segundos. Ferramentas como o Voice Engine, capaz de gerar falas naturais com apenas 15 segundos de gravação, permitem criar simulações tão reais que desafiam a percepção até dos mais cautelosos. Com essas réplicas, os criminosos entram em contato com as vítimas, fingindo ser alguém próximo para solicitar transferências bancárias ou dados sensíveis, explorando a confiança estabelecida.
Estratégias de Proteção Individual
Para se defender dessas fraudes, especialistas recomendam desconfiar de mensagens ou ligações inesperadas que envolvam pedidos urgentes de dinheiro. Uma precaução simples é ligar de volta para o contato usando um número já conhecido, confirmando a autenticidade. Outra sugestão é criar uma “frase segura” combinada previamente com pessoas próximas, que sirva como código de verificação em situações duvidosas. A atenção a esses detalhes pode evitar perdas significativas.
Ações Preventivas no Âmbito Corporativo
No contexto empresarial, a proteção exige esforços adicionais. Investir em filtros que bloqueiem mensagens de phishing e promover treinamentos regulares sobre cibersegurança são passos fundamentais para capacitar os colaboradores a reconhecerem tentativas de golpe. A adoção de autenticação multifator também reforça a segurança de sistemas, dificultando o acesso não autorizado. Essas medidas ajudam a reduzir os riscos associados ao uso criminoso da IA, como a clonagem de voz.
Com informações de targettrend.com