Ides

Mais de 30 falhas em assistentes de programação com IA permitem roubo de dados

O pesquisador de segurança Ari Marzouk identificou mais de 30 vulnerabilidades em Ambientes Integrados de Desenvolvimento (IDEs) que utilizam inteligência artificial para assistência. Essas falhas, coletivamente chamadas de IDEsaster, permitem que atacantes realizem injeções de prompt, utilizando ferramentas legítimas do sistema para roubar dados e executar códigos remotamente. Entre as IDEs afetadas estão Cursor, GitHub Copilot e Zed.dev, com 24 das vulnerabilidades já registradas como CVEs. Marzouk destaca que as IAs de IDE ignoram o software base em suas análises de segurança, considerando as ferramentas como seguras, o que as torna vulneráveis quando um agente de IA é integrado. Os vetores de ataque incluem a manipulação de contextos e a execução de ações sem interação do usuário. Para mitigar esses riscos, recomenda-se que os usuários utilizem IDEs apenas em projetos confiáveis e monitorem constantemente as conexões com servidores. Além disso, é importante revisar manualmente as fontes adicionadas e estar atento a instruções ocultas que possam ser utilizadas para exploração maliciosa.

Vulnerabilidades em IDEs de IA podem levar a vazamentos de dados

Mais de 30 vulnerabilidades de segurança foram reveladas em ambientes de desenvolvimento integrados (IDEs) que utilizam inteligência artificial (IA), permitindo a exfiltração de dados e execução remota de código. Denominadas ‘IDEsaster’ pelo pesquisador Ari Marzouk, essas falhas afetam IDEs populares como Cursor, GitHub Copilot e Kiro.dev, com 24 delas recebendo identificadores CVE. As vulnerabilidades exploram a ineficácia dos modelos de linguagem em distinguir entre comandos legítimos e maliciosos, permitindo que atacantes utilizem injeções de prompt para manipular o contexto e acionar funções legítimas das IDEs. Exemplos de ataques incluem a leitura de arquivos sensíveis e a execução de código malicioso através da edição de arquivos de configuração. Marzouk recomenda que desenvolvedores utilizem IDEs de IA apenas com projetos confiáveis e monitorem continuamente servidores de contexto. As descobertas ressaltam a necessidade de um novo paradigma de segurança, ‘Secure for AI’, para mitigar os riscos associados ao uso de ferramentas de IA em ambientes de desenvolvimento.