Ia Generativa

Descoberto primeiro malware com IA generativa para Android

Pesquisadores da ESET identificaram o PromptSpy, o primeiro malware para Android que utiliza inteligência artificial generativa para aprimorar suas capacidades de ataque. Embora ainda seja uma prova de conceito, o malware é projetado para fornecer controle remoto sobre dispositivos infectados, utilizando um módulo de computação de rede virtual (VNC). O PromptSpy interage com o chatbot Gemini da Google, enviando comandos em linguagem natural para manipular o dispositivo atacado. Isso permite que os hackers adaptem seus ataques a diferentes versões do sistema operacional Android.

Malware Android usa IA generativa para persistência em dispositivos

Pesquisadores da ESET identificaram o primeiro malware Android conhecido a utilizar IA generativa em sua execução, denominado ‘PromptSpy’. Este malware se aproveita do modelo Gemini da Google para adaptar sua persistência em diferentes dispositivos. A descoberta ocorreu em fevereiro de 2026, com a primeira versão, chamada VNCSpy, sendo detectada em janeiro do mesmo ano. O PromptSpy utiliza a IA para enviar comandos que permitem ’travar’ aplicativos na lista de aplicativos recentes, dificultando sua remoção. Essa técnica é especialmente eficaz, pois varia entre fabricantes, e a IA ajuda a automatizar o processo. Além de sua capacidade de persistência, o PromptSpy atua como spyware, permitindo acesso remoto completo aos dispositivos infectados, podendo capturar senhas, gravar a tela e interceptar informações sensíveis. Para dificultar a desinstalação, o malware sobrepõe botões invisíveis sobre a interface do usuário. Embora a ESET ainda não tenha observado o PromptSpy em sua telemetria, a presença de domínios dedicados para distribuição sugere que ele pode ter sido utilizado em ataques reais. Essa nova abordagem de malware destaca como a IA generativa pode ser utilizada para aprimorar a eficácia de ataques cibernéticos, representando uma preocupação crescente para a segurança digital.

77 dos Funcionários Compartilham Segredos da Empresa no ChatGPT

Um novo relatório revela que 77% dos funcionários compartilham informações confidenciais da empresa em plataformas de inteligência artificial generativa, como o ChatGPT, resultando em violações de políticas de segurança. O estudo mostra que quase metade dos colaboradores interage regularmente com essas ferramentas, e 40% dos arquivos enviados contêm dados regulados, como informações pessoais identificáveis (PII) e dados de cartões de pagamento (PCI). Apesar das políticas de segurança que enfatizam o controle de arquivos, muitos funcionários estão copiando e colando informações sensíveis diretamente em campos de entrada de IA, o que dificulta a detecção por sistemas de auditoria de segurança. Além disso, 87% das atividades de chat observadas ocorrem em contas não gerenciadas, aumentando o risco de vazamentos de dados. O relatório sugere que as empresas precisam repensar suas estratégias de segurança, mudando o foco de controles tradicionais de prevenção de perda de dados (DLP) para monitoramento dinâmico de fluxos de dados baseados em navegador e atividades em sessões de SaaS não gerenciadas. Medidas como políticas de acesso adaptativas e análise comportamental em tempo real são essenciais para mitigar esses riscos emergentes.

Evolução da Prevenção de Vazamento de Dados para IA Generativa

As plataformas de IA generativa, como ChatGPT e Copilot, estão se tornando comuns nas organizações, trazendo eficiência, mas também novos desafios na prevenção de vazamentos de dados. Informações sensíveis podem ser expostas através de prompts de chat, arquivos enviados para resumo ou plugins de navegador que contornam controles de segurança. As soluções tradicionais de DLP (Data Loss Prevention) frequentemente não conseguem detectar esses eventos. Tecnologias como o Fidelis Network Detection and Response (NDR) oferecem uma abordagem baseada em rede para controlar a atividade de IA, permitindo que as equipes monitorem, apliquem políticas e auditem o uso de IA generativa.