Campanhas ilegais de extração de IA ameaçam segurança nacional

A Anthropic revelou a descoberta de campanhas em larga escala por três empresas de inteligência artificial, DeepSeek, Moonshot AI e MiniMax, que tentaram extrair ilegalmente as capacidades do modelo Claude para aprimorar seus próprios sistemas. Essas campanhas, que envolveram mais de 16 milhões de interações com o modelo, foram realizadas por meio de cerca de 24.000 contas fraudulentas, violando as restrições de acesso e os termos de serviço da Anthropic. As empresas estão baseadas na China, onde o uso dos serviços da Anthropic é proibido devido a riscos legais e de segurança. A técnica utilizada, chamada destilação, é legítima quando aplicada para criar versões menores de modelos, mas se torna ilegal quando usada por concorrentes para adquirir capacidades de outros modelos. A Anthropic alertou que modelos obtidos de forma ilícita não possuem as salvaguardas necessárias, representando riscos significativos à segurança nacional, pois podem ser utilizados em operações cibernéticas maliciosas. Para combater essas ameaças, a empresa implementou sistemas de classificação e verificação para identificar padrões suspeitos de ataque em seu tráfego de API.

Fonte: https://thehackernews.com/2026/02/anthropic-says-chinese-ai-firms-used-16.html

⚠️
BR DEFENSE CENTER: SECURITY BRIEFING
24/02/2026 • Risco: ALTO
ATAQUE

Campanhas ilegais de extração de IA ameaçam segurança nacional

RESUMO EXECUTIVO
As campanhas de extração de IA destacam a vulnerabilidade de modelos de inteligência artificial a ataques cibernéticos, com implicações diretas para a segurança nacional e a proteção de dados. A necessidade de ações preventivas e de monitoramento contínuo é crucial para evitar que capacidades críticas sejam comprometidas.

💼 IMPACTO DE NEGÓCIO

Financeiro
Possíveis perdas financeiras devido à exploração de modelos de IA e à violação de dados.
Operacional
Proliferação de capacidades perigosas sem as salvaguardas necessárias.
Setores vulneráveis
['Tecnologia', 'Financeiro', 'Governo']

📊 INDICADORES CHAVE

16 milhões de interações com o modelo Claude. Indicador
24.000 contas fraudulentas utilizadas. Contexto BR
Mais de 3,4 milhões de trocas por Moonshot AI. Urgência

⚡ AÇÕES IMEDIATAS

1 Auditar o uso de modelos de IA e verificar acessos não autorizados.
2 Implementar medidas de segurança adicionais para proteger modelos de IA contra acessos não autorizados.
3 Monitorar continuamente o tráfego de API e padrões de uso para identificar atividades suspeitas.

🇧🇷 RELEVÂNCIA BRASIL

CISOs devem se preocupar com a segurança de seus modelos de IA e a possibilidade de que capacidades críticas sejam extraídas por concorrentes, o que pode comprometer a integridade de suas operações.

⚖️ COMPLIANCE

Implicações legais relacionadas à LGPD e à segurança de dados.
Status
ativo
Verificação
alta
BR Defense Center

Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).