Os golpes de impersonação utilizando inteligência artificial (IA) estão em ascensão alarmante em 2025, com um aumento de 148% em comparação ao ano anterior, segundo especialistas em segurança. Esses golpes se aproveitam de tecnologias como clonagem de voz e deepfake para imitar com precisão a voz e a aparência de pessoas de confiança, como amigos, familiares e executivos de empresas. Os criminosos utilizam essas técnicas para realizar chamadas, reuniões por vídeo e enviar mensagens, criando um senso de urgência que pode levar as vítimas a agir rapidamente sem verificar a identidade do suposto remetente.
Para se proteger, especialistas recomendam a verificação independente da identidade da pessoa que está contatando, além do uso de autenticação multifatorial (MFA). É crucial desacelerar e confirmar a identidade antes de tomar qualquer ação, como retornar uma chamada em vez de responder imediatamente. Além disso, é importante estar atento a sinais de alerta, como movimentos labiais artificiais em vídeos ou vozes que apresentam pausas incomuns. Com a evolução dessas fraudes, a conscientização e a vigilância são essenciais para evitar ser enganado por essas novas táticas de cibercrime.
Fonte: https://www.techradar.com/computing/cyber-security/ai-impersonation-scams-are-sky-rocketing-in-2025-security-experts-warn-heres-how-to-stay-safe
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
31/08/2025 • Risco: ALTO
PHISHING
Golpes de impersonação com IA disparam em 2025; saiba como se proteger
RESUMO EXECUTIVO
As fraudes de impersonação com IA estão se tornando uma ameaça crescente, com um aumento de 148% em 2025. As empresas devem implementar medidas de segurança robustas, como MFA e verificação de identidade, para mitigar riscos financeiros e de conformidade.
💼 IMPACTO DE NEGÓCIO
Financeiro
Perdas financeiras significativas devido a fraudes bem-sucedidas.
Operacional
Fraudes que resultaram em perdas financeiras significativas, como o caso de $25 milhões em transferências fraudulentas.
Setores vulneráveis
['Setores financeiros', 'Tecnologia', 'Serviços']
📊 INDICADORES CHAVE
Aumento de 148% em fraudes de IA em 2025.
Indicador
48% das tentativas de phishing geradas por IA conseguem evitar detecção.
Contexto BR
$25 milhões em transferências fraudulentas em um único incidente.
Urgência
⚡ AÇÕES IMEDIATAS
1
Verificar a identidade de contatos que solicitam informações sensíveis.
2
Implementar autenticação multifatorial em todas as contas críticas.
3
Monitorar continuamente comunicações para identificar tentativas de fraudes.
🇧🇷 RELEVÂNCIA BRASIL
C-level deve se preocupar com a crescente sofisticação das fraudes que podem comprometer a segurança financeira e a reputação das empresas.
⚖️ COMPLIANCE
Implicações legais relacionadas à LGPD e proteção de dados pessoais.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).