Hackers podem clonar sua voz com IA em poucos segundos para aplicar golpes
A clonagem de voz por meio da inteligência artificial (IA) está se tornando uma tática alarmante entre criminosos digitais, permitindo que eles imitem vozes humanas de forma convincente em questão de segundos. Um estudo da McAfee revelou que 25% dos adultos já foram vítimas ou conhecem alguém que sofreu esse tipo de golpe. As perdas financeiras decorrentes dessas fraudes podem alcançar até US$ 40 bilhões até 2027, segundo a Deloitte. Os hackers utilizam ferramentas de IA acessíveis para replicar timbres, sotaques e emoções, tornando os golpes mais persuasivos. Os sinais de alerta incluem ligações de números desconhecidos, pedidos urgentes de dinheiro e vozes que soam artificiais. Para se proteger, é recomendável criar palavras de segurança com pessoas próximas e desconfiar de contatos que solicitam dinheiro de forma apressada.
