A Anthropic revelou a descoberta de campanhas em larga escala por três empresas de inteligência artificial, DeepSeek, Moonshot AI e MiniMax, que tentaram extrair ilegalmente as capacidades do modelo Claude para aprimorar seus próprios sistemas. Essas campanhas, que envolveram mais de 16 milhões de interações com o modelo, foram realizadas por meio de cerca de 24.000 contas fraudulentas, violando as restrições de acesso e os termos de serviço da Anthropic. As empresas estão baseadas na China, onde o uso dos serviços da Anthropic é proibido devido a riscos legais e de segurança. A técnica utilizada, chamada destilação, é legítima quando aplicada para criar versões menores de modelos, mas se torna ilegal quando usada por concorrentes para adquirir capacidades de outros modelos. A Anthropic alertou que modelos obtidos de forma ilícita não possuem as salvaguardas necessárias, representando riscos significativos à segurança nacional, pois podem ser utilizados em operações cibernéticas maliciosas. Para combater essas ameaças, a empresa implementou sistemas de classificação e verificação para identificar padrões suspeitos de ataque em seu tráfego de API.
Fonte: https://thehackernews.com/2026/02/anthropic-says-chinese-ai-firms-used-16.html
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
24/02/2026 • Risco: ALTO
ATAQUE
Campanhas ilegais de extração de IA ameaçam segurança nacional
RESUMO EXECUTIVO
As campanhas de extração de IA destacam a vulnerabilidade de modelos de inteligência artificial a ataques cibernéticos, com implicações diretas para a segurança nacional e a proteção de dados. A necessidade de ações preventivas e de monitoramento contínuo é crucial para evitar que capacidades críticas sejam comprometidas.
💼 IMPACTO DE NEGÓCIO
Financeiro
Possíveis perdas financeiras devido à exploração de modelos de IA e à violação de dados.
Operacional
Proliferação de capacidades perigosas sem as salvaguardas necessárias.
Setores vulneráveis
['Tecnologia', 'Financeiro', 'Governo']
📊 INDICADORES CHAVE
16 milhões de interações com o modelo Claude.
Indicador
24.000 contas fraudulentas utilizadas.
Contexto BR
Mais de 3,4 milhões de trocas por Moonshot AI.
Urgência
⚡ AÇÕES IMEDIATAS
1
Auditar o uso de modelos de IA e verificar acessos não autorizados.
2
Implementar medidas de segurança adicionais para proteger modelos de IA contra acessos não autorizados.
3
Monitorar continuamente o tráfego de API e padrões de uso para identificar atividades suspeitas.
🇧🇷 RELEVÂNCIA BRASIL
CISOs devem se preocupar com a segurança de seus modelos de IA e a possibilidade de que capacidades críticas sejam extraídas por concorrentes, o que pode comprometer a integridade de suas operações.
⚖️ COMPLIANCE
Implicações legais relacionadas à LGPD e à segurança de dados.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).