Clonagem De Voz

Hackers podem clonar sua voz com IA em poucos segundos para aplicar golpes

A clonagem de voz por meio da inteligência artificial (IA) está se tornando uma tática alarmante entre criminosos digitais, permitindo que eles imitem vozes humanas de forma convincente em questão de segundos. Um estudo da McAfee revelou que 25% dos adultos já foram vítimas ou conhecem alguém que sofreu esse tipo de golpe. As perdas financeiras decorrentes dessas fraudes podem alcançar até US$ 40 bilhões até 2027, segundo a Deloitte. Os hackers utilizam ferramentas de IA acessíveis para replicar timbres, sotaques e emoções, tornando os golpes mais persuasivos. Os sinais de alerta incluem ligações de números desconhecidos, pedidos urgentes de dinheiro e vozes que soam artificiais. Para se proteger, é recomendável criar palavras de segurança com pessoas próximas e desconfiar de contatos que solicitam dinheiro de forma apressada.

Golpes de impersonação com IA disparam em 2025 saiba como se proteger

Os golpes de impersonação utilizando inteligência artificial (IA) estão em ascensão alarmante em 2025, com um aumento de 148% em comparação ao ano anterior, segundo especialistas em segurança. Esses golpes se aproveitam de tecnologias como clonagem de voz e deepfake para imitar com precisão a voz e a aparência de pessoas de confiança, como amigos, familiares e executivos de empresas. Os criminosos utilizam essas técnicas para realizar chamadas, reuniões por vídeo e enviar mensagens, criando um senso de urgência que pode levar as vítimas a agir rapidamente sem verificar a identidade do suposto remetente.