Pesquisadores do grupo Trail of Bits revelaram uma nova vulnerabilidade que permite a hackers roubar dados de usuários ao injetar comandos maliciosos em imagens processadas por sistemas de inteligência artificial (IA), como o Gemini da Google. A técnica utiliza esteganografia, onde instruções invisíveis ao olho humano são incorporadas em imagens de alta resolução. Quando essas imagens são redimensionadas por algoritmos de IA, os comandos ocultos podem se tornar visíveis e ser interpretados como parte das solicitações do usuário.
Os especialistas demonstraram que, ao enviar uma imagem maliciosa, é possível manipular o Calendário do Google, por exemplo, sem a confirmação do usuário. Essa vulnerabilidade afeta principalmente grandes modelos de linguagem (LLMs), como ChatGPT e Claude, e pode ser explorada em diversas plataformas, incluindo a interface web do Gemini e o Google Assistente em dispositivos Android. Para mitigar esses riscos, os pesquisadores recomendam que as empresas implementem restrições de dimensão e confirmem explicitamente ações sensíveis quando texto for detectado em imagens. A criação de padrões de design seguros é essencial para prevenir a injeção de comandos maliciosos.
Fonte: https://canaltech.com.br/seguranca/hackers-podem-roubar-dados-com-comandos-escondidos-em-imagens-processadas-por-ia/
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
28/08/2025 • Risco: ALTO
VULNERABILIDADE
Hackers podem roubar dados com comandos escondidos em imagens processadas por IA
RESUMO EXECUTIVO
A vulnerabilidade identificada pode permitir que hackers manipulem dados sensíveis em sistemas amplamente utilizados, exigindo que as empresas adotem medidas de segurança mais rigorosas para proteger informações críticas.
💼 IMPACTO DE NEGÓCIO
Financeiro
Possíveis perdas financeiras devido a vazamentos de dados e ações legais.
Operacional
Possibilidade de manipulação de dados do Calendário do Google sem confirmação do usuário.
Setores vulneráveis
['Tecnologia', 'Serviços financeiros', 'Saúde']
📊 INDICADORES CHAVE
Vulnerabilidade confirmada em múltiplos sistemas de IA.
Indicador
Uso de esteganografia para esconder comandos maliciosos.
Contexto BR
Demonstração de extração de dados do Calendário do Google.
Urgência
⚡ AÇÕES IMEDIATAS
1
Verificar se sistemas de IA estão expostos a imagens não verificadas.
2
Implementar restrições de dimensão e confirmação de ações sensíveis em sistemas de IA.
3
Monitorar continuamente o uso de imagens e comandos em sistemas de IA para detectar atividades suspeitas.
🇧🇷 RELEVÂNCIA BRASIL
CISOs devem se preocupar com a segurança de dados em sistemas de IA, que são cada vez mais utilizados em processos empresariais. A exploração dessa vulnerabilidade pode levar a sérias consequências legais e de reputação.
⚖️ COMPLIANCE
Implicações diretas na conformidade com a LGPD, especialmente em relação à proteção de dados pessoais.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).