O uso de ferramentas de inteligência artificial para clonar vozes está se tornando uma realidade preocupante, especialmente em golpes financeiros. Giovanni La Porta, CEO da vortice.ai, destacou em entrevista que criminosos estão utilizando ligações silenciosas para coletar amostras de voz de suas vítimas. Após alguns segundos de conversa, a voz clonada é utilizada para enviar mensagens de áudio pelo WhatsApp, imitando a voz de um familiar ou amigo e solicitando transferências de dinheiro. Essa nova abordagem elimina a desconfiança que normalmente acompanha mensagens de texto, tornando os golpes mais eficazes. A evolução dos deepfakes, que antes eram facilmente identificáveis, agora permite a clonagem de vozes com apenas alguns segundos de áudio. La Porta também mencionou casos em que deepfakes foram usados em reuniões corporativas, levando a decisões baseadas em instruções falsas. Embora a criação de deepfakes não seja, por si só, um crime, o uso malicioso desse tipo de tecnologia levanta preocupações legais e éticas, especialmente no contexto da LGPD no Brasil.
Fonte: https://canaltech.com.br/seguranca/golpe-de-voz-clonada-via-whatsapp-ja-e-realidade-alerta-especialista-em-ia/
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
20/03/2026 • Risco: ALTO
PHISHING
Golpe de voz clonada via WhatsApp já é realidade, alerta especialista em IA
RESUMO EXECUTIVO
A clonagem de vozes por meio de IA representa uma nova fronteira em fraudes financeiras, exigindo que as empresas adotem medidas proativas para proteger suas comunicações e dados. A falta de regulamentação específica sobre o uso de deepfakes pode resultar em riscos legais e de conformidade.
💼 IMPACTO DE NEGÓCIO
Financeiro
Potenciais perdas financeiras devido a fraudes.
Operacional
Fraudes financeiras com uso de voz clonada.
Setores vulneráveis
['Setor financeiro', 'Setor corporativo']
📊 INDICADORES CHAVE
Clonagem de voz com apenas alguns segundos de áudio.
Indicador
Casos documentados de deepfakes em reuniões corporativas.
Contexto BR
ALTO
Urgência
⚡ AÇÕES IMEDIATAS
1
Verificar se há registros de chamadas silenciosas e treinar funcionários sobre como identificar fraudes.
2
Implementar autenticação multifatorial para transações financeiras.
3
Monitorar comunicações internas e externas para identificar possíveis tentativas de fraudes.
🇧🇷 RELEVÂNCIA BRASIL
CISOs devem se preocupar com a crescente sofisticação dos golpes que utilizam IA, pois isso pode levar a perdas financeiras significativas e comprometer a confiança nas comunicações digitais.
⚖️ COMPLIANCE
Implicações da LGPD sobre o uso de dados pessoais em fraudes.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).