Assistente De Ia

Vulnerabilidade na extensão do Chrome do Claude permite ataques silenciosos

Pesquisadores de cibersegurança identificaram uma vulnerabilidade crítica na extensão do Google Chrome do assistente Claude, da Anthropic, que poderia ser explorada para injetar comandos maliciosos apenas ao visitar uma página da web. A falha, chamada ShadowPrompt, resulta de uma lista de permissões excessivamente permissiva e uma vulnerabilidade de cross-site scripting (XSS) em um componente CAPTCHA da Arkose Labs. Essa combinação permite que um atacante injete código JavaScript que simula um comando legítimo do usuário, possibilitando o roubo de dados sensíveis, acesso ao histórico de conversas e até ações em nome da vítima, como o envio de e-mails. Após a divulgação responsável da vulnerabilidade em dezembro de 2025, a Anthropic lançou uma correção que restringe as permissões da extensão, enquanto a Arkose Labs também corrigiu a falha de XSS. A crescente complexidade e capacidade dos assistentes de IA os tornam alvos valiosos para ataques, destacando a importância de uma segurança robusta nas extensões de navegador.

Pesquisadores alertam sobre vulnerabilidades do assistente Moltbot

Pesquisadores de segurança estão emitindo alertas sobre implantações inseguras do assistente de IA Moltbot (anteriormente Clawdbot) em ambientes corporativos, que podem resultar em vazamento de chaves de API, tokens OAuth, histórico de conversas e credenciais. Moltbot é um assistente pessoal de IA de código aberto, criado por Peter Steinberger, que pode ser hospedado localmente e integrado a aplicativos do usuário. Embora sua capacidade de operar 24/7 e manter memória persistente tenha impulsionado sua popularidade, a configuração inadequada pode expor dados sensíveis. O pesquisador Jamieson O’Reilly destacou que muitas interfaces de controle do Clawdbot estão expostas online devido a configurações incorretas de proxy reverso, permitindo acesso não autenticado e roubo de credenciais. Além disso, O’Reilly demonstrou um ataque à cadeia de suprimentos contra usuários do Moltbot, onde um módulo malicioso foi promovido na loja oficial. A Token Security identificou que 22% de seus clientes corporativos têm funcionários utilizando Moltbot sem aprovação de TI, aumentando o risco de vazamento de dados corporativos e ataques de injeção de comandos. A falta de sandboxing para o assistente de IA é uma preocupação significativa, pois o agente tem acesso total aos dados do usuário. A segurança da implantação do Moltbot exige conhecimento técnico e medidas rigorosas de isolamento e configuração de firewall.