Uma pesquisa da empresa de segurança Aikido revelou que ferramentas de inteligência artificial (IA) utilizadas em desenvolvimento de software, como Claude Code, Google Gemini e Codex da OpenAI, podem ser vulneráveis a injeções de prompts maliciosos. Essa vulnerabilidade ocorre quando essas ferramentas são integradas em fluxos de trabalho automatizados, como GitHub Actions e GitLab. Agentes maliciosos podem enviar comandos disfarçados de mensagens de commit ou pedidos de pull, levando a IA a interpretá-los como instruções legítimas. Isso representa um risco significativo, pois muitos modelos de IA possuem altos privilégios em repositórios do GitHub, permitindo ações como edição de arquivos e publicação de conteúdo malicioso. Aikido já reportou a falha ao Google, que corrigiu a vulnerabilidade no Gemini CLI, mas a pesquisa indica que o problema é estrutural e afeta a maioria dos modelos de IA. A falha é considerada extremamente perigosa, pois pode resultar no vazamento de tokens privilegiados do GitHub. A situação exige atenção redobrada dos desenvolvedores e gestores de segurança da informação para evitar possíveis explorações.
Fonte: https://canaltech.com.br/seguranca/sua-ia-de-programacao-pode-estar-obedecendo-a-hackers-sem-voce-saber/
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
08/12/2025 • Risco: ALTO
VULNERABILIDADE
Sua IA de programação pode estar obedecendo a hackers sem você saber
RESUMO EXECUTIVO
A vulnerabilidade identificada nas ferramentas de IA pode permitir que agentes maliciosos executem comandos indesejados em repositórios do GitHub, comprometendo a segurança e a integridade dos dados. A correção já foi implementada em algumas ferramentas, mas a natureza estrutural do problema exige vigilância contínua e ações proativas por parte dos gestores de segurança.
💼 IMPACTO DE NEGÓCIO
Financeiro
Possíveis custos associados à recuperação de dados e mitigação de danos em caso de exploração.
Operacional
Possibilidade de edição de arquivos e publicação de conteúdo malicioso.
Setores vulneráveis
['Tecnologia da Informação', 'Desenvolvimento de Software']
📊 INDICADORES CHAVE
A maioria dos modelos de IA possui altos privilégios em repositórios do GitHub.
Indicador
Vazamento de tokens privilegiados foi demonstrado em testes.
Contexto BR
Primeira vez que a vulnerabilidade foi observada afetando projetos de desenvolvimento em plataformas como GitHub.
Urgência
⚡ AÇÕES IMEDIATAS
1
Revisar permissões de acesso e configurações de segurança em repositórios do GitHub.
2
Implementar controles adicionais para validar comandos e mensagens antes de serem processados pelas ferramentas de IA.
3
Monitorar continuamente atividades suspeitas em repositórios e logs de acesso.
🇧🇷 RELEVÂNCIA BRASIL
CISOs devem se preocupar com a segurança dos repositórios de código, pois a exploração dessa vulnerabilidade pode levar a compromissos sérios de segurança e perda de dados sensíveis.
⚖️ COMPLIANCE
Implicações para a conformidade com a LGPD, especialmente em relação ao tratamento de dados sensíveis.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).