Claude Code

Código vazado do Claude Code é usado para disseminar malware

O vazamento do código-fonte do Claude Code, uma ferramenta de inteligência artificial da Anthropic, resultou em uma campanha maliciosa que distribui um malware chamado ‘Vidar’, projetado para roubar dados sensíveis dos usuários. O incidente teve início no final de março de 2026, quando um arquivo JavaScript contendo o código vazado foi acidentalmente incluído em um pacote npm e posteriormente publicado no GitHub. Criminosos aproveitaram essa situação para criar um repositório falso, atraindo usuários interessados em obter o código original. O responsável pela disseminação do malware, identificado como ‘idbzoomh’, utilizou técnicas de SEO para garantir que seu repositório aparecesse nas primeiras posições dos resultados de busca do Google. O malware se instala como um dropper, utilizando uma ferramenta de proxy para roubar informações. Além disso, uma segunda versão do repositório foi encontrada, sugerindo que os atacantes estão testando diferentes métodos de distribuição. A análise da empresa de segurança Zscaler alerta para o risco que essa situação representa, especialmente para aqueles que buscam o código vazado, tornando-os alvos fáceis para os hackers.

Ameaça de malware após vazamento do código do Claude Code

Recentemente, o vazamento do código-fonte do Claude Code, uma ferramenta de IA da Anthropic, expôs 513 mil linhas de código TypeScript, permitindo que cibercriminosos explorassem essa brecha. O incidente ocorreu em 31 de março de 2023, quando um mapa de origem JavaScript foi acidentalmente incluído em um pacote npm. Após a divulgação, o código foi rapidamente baixado e publicado em repositórios do GitHub, onde um usuário malicioso criou um repositório falso que prometia acesso a recursos ‘desbloqueados’ do Claude Code. Esse repositório, otimizado para mecanismos de busca, atraiu usuários curiosos, que acabaram baixando um arquivo malicioso contendo um executável que instala o malware Vidar, um ladrão de informações, junto com a ferramenta GhostSocks. Os pesquisadores da Zscaler alertam que o repositório malicioso é atualizado frequentemente, o que pode indicar a adição de novos payloads. Apesar das defesas do GitHub, a plataforma tem sido um canal recorrente para a distribuição de malware disfarçado. O incidente destaca a necessidade de vigilância constante e de ações proativas para mitigar riscos associados a vazamentos de código e à exploração de vulnerabilidades.

Vazamento de código do assistente de IA Claude Code da Anthropic

A Anthropic confirmou que um erro humano resultou na liberação acidental do código interno de seu assistente de codificação, Claude Code. Embora não tenha havido exposição de dados sensíveis de clientes, a falha permitiu que o código-fonte, que inclui quase 2.000 arquivos TypeScript e mais de 512.000 linhas de código, fosse acessado publicamente. O vazamento foi identificado após o lançamento da versão 2.1.88 do pacote npm do Claude Code, que continha um arquivo de mapa de origem. O pesquisador de segurança Chaofan Shou foi o primeiro a alertar sobre o incidente, que rapidamente ganhou atenção nas redes sociais. O código vazado fornece informações valiosas sobre a arquitetura de memória do modelo e suas funcionalidades, como um sistema de ferramentas para execução de comandos e um modo de operação em segundo plano chamado KAIROS. Além disso, o incidente expôs riscos adicionais, como a possibilidade de ataques de typosquatting em pacotes npm relacionados. A Anthropic já está implementando medidas para evitar que erros semelhantes ocorram no futuro, mas o incidente destaca a vulnerabilidade de sistemas de IA a ataques e exploração de suas falhas.

Anthropic vaza código-fonte do Claude Code, mas sem dados de clientes

A Anthropic, empresa de inteligência artificial, confirmou um vazamento acidental do código-fonte do Claude Code, uma ferramenta de programação que até então era de código fechado. O incidente ocorreu quando a versão 2.1.88 foi publicada brevemente no NPM, incluindo um arquivo de mapeamento de código fonte (cli.js.map) de 60 MB, que continha aproximadamente 1.900 arquivos e 500.000 linhas de código. Apesar do vazamento, a empresa assegurou que não houve exposição de dados pessoais ou credenciais de clientes, atribuindo o erro a uma falha humana e não a uma violação de segurança. O código vazado revelou novas funcionalidades, como um modo proativo que permite ao Claude programar continuamente e um modo ‘Dream’ que desenvolve ideias enquanto o usuário está ausente. Além disso, a Anthropic está enfrentando críticas de usuários que relataram limites de uso reduzidos, o que a empresa está investigando. O vazamento do código já gerou interesse entre desenvolvedores, que começaram a analisar as novas funcionalidades disponíveis no código exposto. A Anthropic está tomando medidas para remover o código vazado de plataformas como o GitHub, enviando notificações de infração de direitos autorais (DMCA).

Vulnerabilidades críticas no assistente de codificação Claude Code da Anthropic

Pesquisadores de cibersegurança identificaram várias vulnerabilidades no Claude Code, um assistente de codificação baseado em inteligência artificial da Anthropic, que podem levar à execução remota de código e ao roubo de credenciais da API. As falhas exploram mecanismos de configuração, como Hooks e variáveis de ambiente, permitindo a execução de comandos de shell arbitrários e a exfiltração de chaves da API da Anthropic ao clonar repositórios não confiáveis. As vulnerabilidades se dividem em três categorias principais: uma falha de injeção de código sem CVE, que permite a execução de código arbitrário sem confirmação do usuário; uma vulnerabilidade CVE-2025-59536, que executa comandos de shell automaticamente ao iniciar o Claude Code em um diretório não confiável; e uma falha CVE-2026-21852, que permite a exfiltração de dados, incluindo chaves da API, de repositórios maliciosos. A exploração bem-sucedida dessas vulnerabilidades pode comprometer a infraestrutura de IA do desenvolvedor, permitindo acesso a arquivos de projetos compartilhados e gerando custos inesperados com a API. A Anthropic já lançou correções para essas falhas, mas a situação destaca a necessidade de cautela ao trabalhar com ferramentas de IA em ambientes de desenvolvimento.

Hackers chineses utilizam IA para automatizar ciberespionagem

Hackers chineses estão utilizando inteligência artificial (IA) para aprimorar suas campanhas de ciberespionagem, conforme identificado pela Anthropic, a empresa responsável pela ferramenta Claude Code. Essa nova abordagem foi observada em ataques a cerca de 30 empresas internacionais, incluindo instituições financeiras e agências governamentais. O relatório revela que, em ataques bem-sucedidos, a intervenção humana foi mínima, com a IA executando de 80 a 90% das tarefas necessárias.

A operação dos hackers foi organizada em seis fases, começando pela seleção do alvo e culminando na exfiltração de dados confidenciais. A IA foi manipulada para atuar como um agente autônomo, encontrando vulnerabilidades, coletando credenciais e explorando sistemas. A Anthropic respondeu banindo as contas associadas a esses ataques e implementando novos mecanismos de defesa. Essa evolução na ciberespionagem, com uma IA promovendo um ataque de larga escala, levanta preocupações sobre a profissionalização do cibercrime e o uso crescente de tecnologias avançadas para atividades ilícitas.

Hackers Chineses Usam IA para Infiltrar Grandes Empresas de Tecnologia

Um ataque cibernético em larga escala, realizado quase inteiramente por inteligência artificial, foi revelado pela Anthropic. O incidente, que ocorreu em setembro de 2025, envolveu hackers patrocinados pelo Estado chinês que utilizaram a IA Claude Code para comprometer cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais. A campanha de espionagem se destacou pela automação sem precedentes, com a IA gerenciando 80-90% das operações, exigindo intervenção humana apenas em 4-6 pontos críticos. Os atacantes exploraram capacidades avançadas da IA, como execução de tarefas complexas e operação autônoma, para realizar reconhecimento, desenvolver códigos de exploração e exfiltrar dados classificados. A Anthropic detectou a atividade suspeita e iniciou uma investigação, resultando na identificação de contas comprometidas e na notificação das organizações afetadas. Este incidente sinaliza uma diminuição nas barreiras para ataques cibernéticos sofisticados, permitindo que grupos menos experientes realizem operações que antes exigiam recursos significativos. A empresa recomenda que equipes de segurança experimentem aplicações de IA para melhorar a detecção de ameaças e a resposta a incidentes.