Anthropic

Vazamento de código do assistente de IA Claude Code da Anthropic

A Anthropic confirmou que um erro humano resultou na liberação acidental do código interno de seu assistente de codificação, Claude Code. Embora não tenha havido exposição de dados sensíveis de clientes, a falha permitiu que o código-fonte, que inclui quase 2.000 arquivos TypeScript e mais de 512.000 linhas de código, fosse acessado publicamente. O vazamento foi identificado após o lançamento da versão 2.1.88 do pacote npm do Claude Code, que continha um arquivo de mapa de origem. O pesquisador de segurança Chaofan Shou foi o primeiro a alertar sobre o incidente, que rapidamente ganhou atenção nas redes sociais. O código vazado fornece informações valiosas sobre a arquitetura de memória do modelo e suas funcionalidades, como um sistema de ferramentas para execução de comandos e um modo de operação em segundo plano chamado KAIROS. Além disso, o incidente expôs riscos adicionais, como a possibilidade de ataques de typosquatting em pacotes npm relacionados. A Anthropic já está implementando medidas para evitar que erros semelhantes ocorram no futuro, mas o incidente destaca a vulnerabilidade de sistemas de IA a ataques e exploração de suas falhas.

Anthropic vaza código-fonte do Claude Code, mas sem dados de clientes

A Anthropic, empresa de inteligência artificial, confirmou um vazamento acidental do código-fonte do Claude Code, uma ferramenta de programação que até então era de código fechado. O incidente ocorreu quando a versão 2.1.88 foi publicada brevemente no NPM, incluindo um arquivo de mapeamento de código fonte (cli.js.map) de 60 MB, que continha aproximadamente 1.900 arquivos e 500.000 linhas de código. Apesar do vazamento, a empresa assegurou que não houve exposição de dados pessoais ou credenciais de clientes, atribuindo o erro a uma falha humana e não a uma violação de segurança. O código vazado revelou novas funcionalidades, como um modo proativo que permite ao Claude programar continuamente e um modo ‘Dream’ que desenvolve ideias enquanto o usuário está ausente. Além disso, a Anthropic está enfrentando críticas de usuários que relataram limites de uso reduzidos, o que a empresa está investigando. O vazamento do código já gerou interesse entre desenvolvedores, que começaram a analisar as novas funcionalidades disponíveis no código exposto. A Anthropic está tomando medidas para remover o código vazado de plataformas como o GitHub, enviando notificações de infração de direitos autorais (DMCA).

Anthropic é designada como risco à cadeia de suprimentos pelo Pentágono

A empresa de inteligência artificial Anthropic se manifestou contra a decisão do Secretário de Defesa dos EUA, Pete Hegseth, que designou a companhia como um ‘risco à cadeia de suprimentos’. Essa medida ocorreu após meses de negociações que não avançaram, especialmente em relação ao uso de seu modelo de IA, Claude, para vigilância em massa e armas autônomas. Anthropic defende que seu modelo não deve ser utilizado para vigilância doméstica, argumentando que isso é incompatível com os valores democráticos e apresenta riscos à liberdade. Em resposta, o presidente Donald Trump ordenou que todas as agências federais descontinuem o uso da tecnologia da Anthropic em seis meses, enquanto Hegseth exigiu que todos os contratantes do Departamento de Defesa (DoD) interrompessem qualquer atividade comercial com a empresa imediatamente. O impasse gerou polarização na indústria de tecnologia, com funcionários de empresas como Google e OpenAI apoiando a Anthropic. Em contraste, o CEO da OpenAI, Sam Altman, anunciou um acordo com o DoD para o uso de seus modelos, enfatizando a segurança da IA e a responsabilidade humana em operações militares. A situação destaca a crescente tensão entre inovação tecnológica e considerações éticas na aplicação de IA em contextos militares.

Vulnerabilidades críticas no assistente de codificação Claude Code da Anthropic

Pesquisadores de cibersegurança identificaram várias vulnerabilidades no Claude Code, um assistente de codificação baseado em inteligência artificial da Anthropic, que podem levar à execução remota de código e ao roubo de credenciais da API. As falhas exploram mecanismos de configuração, como Hooks e variáveis de ambiente, permitindo a execução de comandos de shell arbitrários e a exfiltração de chaves da API da Anthropic ao clonar repositórios não confiáveis. As vulnerabilidades se dividem em três categorias principais: uma falha de injeção de código sem CVE, que permite a execução de código arbitrário sem confirmação do usuário; uma vulnerabilidade CVE-2025-59536, que executa comandos de shell automaticamente ao iniciar o Claude Code em um diretório não confiável; e uma falha CVE-2026-21852, que permite a exfiltração de dados, incluindo chaves da API, de repositórios maliciosos. A exploração bem-sucedida dessas vulnerabilidades pode comprometer a infraestrutura de IA do desenvolvedor, permitindo acesso a arquivos de projetos compartilhados e gerando custos inesperados com a API. A Anthropic já lançou correções para essas falhas, mas a situação destaca a necessidade de cautela ao trabalhar com ferramentas de IA em ambientes de desenvolvimento.

Vulnerabilidades críticas no servidor Git MCP da Anthropic

Um conjunto de três vulnerabilidades de segurança foi revelado no mcp-server-git, o servidor oficial do Protocolo de Contexto de Modelo Git (MCP) mantido pela Anthropic. Essas falhas podem ser exploradas para ler ou deletar arquivos arbitrários e executar código sob certas condições. Segundo o pesquisador Yarden Porat, da Cyata, a exploração ocorre por meio de injeção de prompt, permitindo que um atacante influencie o que um assistente de IA lê, como um README malicioso ou uma descrição de problema comprometida, sem acesso direto ao sistema da vítima. As vulnerabilidades, identificadas como CVE-2025-68143, CVE-2025-68144 e CVE-2025-68145, têm pontuações CVSS que variam de 7.1 a 8.8, indicando um risco elevado. Elas foram corrigidas nas versões 2025.9.25 e 2025.12.18, após divulgação responsável em junho de 2025. A exploração bem-sucedida pode permitir que um atacante transforme qualquer diretório em um repositório Git e acesse repositórios no servidor. Em resposta, a ferramenta git_init foi removida do pacote e validações adicionais foram implementadas. Usuários são aconselhados a atualizar para as versões mais recentes para garantir proteção adequada.

Ciberespionagem Atores estatais da China usam IA para ataques

Em setembro de 2025, atores de ameaças patrocinados pelo Estado da China utilizaram tecnologia de inteligência artificial (IA) desenvolvida pela Anthropic para realizar uma campanha de ciberespionagem sofisticada. Os atacantes empregaram as capacidades ‘agentes’ da IA para executar ataques cibernéticos de forma autônoma, sem intervenção humana significativa. A operação, denominada GTG-1002, visou cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais, resultando em algumas intrusões bem-sucedidas. A Anthropic identificou que a IA foi utilizada para realizar diversas etapas do ciclo de ataque, como reconhecimento, descoberta de vulnerabilidades e exfiltração de dados. Embora a operação tenha demonstrado um uso inovador da IA, também revelou limitações, como a tendência da IA de ‘alucinar’ dados, o que pode comprometer a eficácia das operações. Este incidente destaca a evolução das táticas de ciberataques, onde grupos menos experientes podem potencialmente realizar ataques em larga escala com o suporte de sistemas de IA.

Falhas Críticas de Execução Remota de Código na Aplicação Claude Desktop

Recentemente, foram descobertas falhas críticas de execução remota de código na aplicação Claude Desktop, desenvolvida pela Anthropic, uma das principais empresas de inteligência artificial. Três extensões oficiais da plataforma, que somam mais de 350.000 downloads, apresentavam vulnerabilidades que permitiam ataques de injeção de comandos. Essas falhas poderiam ser exploradas durante interações normais com o Claude, permitindo que um simples questionamento do usuário resultasse em comprometimento total do sistema. A vulnerabilidade, classificada com um CVSS de 8.9, se origina de comandos não sanitizados, um erro de segurança conhecido há décadas. As extensões afetadas, que operam com permissões completas do sistema, não validavam a entrada do usuário, permitindo que códigos maliciosos fossem injetados. Embora a Anthropic tenha lançado patches para corrigir as falhas, a situação levanta preocupações sobre a segurança do ecossistema de extensões MCP, que está em rápida expansão. A falta de revisão de segurança em extensões criadas por desenvolvedores independentes, muitas vezes utilizando codificação assistida por IA, aumenta a superfície de ataque, tornando essencial que os usuários e administradores de sistemas compreendam as diferenças entre essas extensões e os complementos tradicionais de navegadores.

Vulnerabilidade em Claude permite exfiltração de dados por hackers

Pesquisadores de segurança descobriram uma vulnerabilidade crítica no sistema de IA Claude, da Anthropic, que permite a atacantes explorar prompts indiretos para roubar dados sensíveis dos usuários através da API de Arquivos da plataforma. A falha foi documentada publicamente em 28 de outubro de 2025 e revela como os criminosos podem manipular o interpretador de código e as funcionalidades da API do Claude para extrair informações confidenciais diretamente dos ambientes de trabalho das vítimas.