Hackers podem roubar dados com comandos escondidos em imagens processadas por IA

Pesquisadores do grupo Trail of Bits revelaram uma nova vulnerabilidade que permite a hackers roubar dados de usuários ao injetar comandos maliciosos em imagens processadas por sistemas de inteligência artificial (IA), como o Gemini da Google. A técnica utiliza esteganografia, onde instruções invisíveis ao olho humano são incorporadas em imagens de alta resolução. Quando essas imagens são redimensionadas por algoritmos de IA, os comandos ocultos podem se tornar visíveis e ser interpretados como parte das solicitações do usuário.

Os especialistas demonstraram que, ao enviar uma imagem maliciosa, é possível manipular o Calendário do Google, por exemplo, sem a confirmação do usuário. Essa vulnerabilidade afeta principalmente grandes modelos de linguagem (LLMs), como ChatGPT e Claude, e pode ser explorada em diversas plataformas, incluindo a interface web do Gemini e o Google Assistente em dispositivos Android. Para mitigar esses riscos, os pesquisadores recomendam que as empresas implementem restrições de dimensão e confirmem explicitamente ações sensíveis quando texto for detectado em imagens. A criação de padrões de design seguros é essencial para prevenir a injeção de comandos maliciosos.

Fonte: https://canaltech.com.br/seguranca/hackers-podem-roubar-dados-com-comandos-escondidos-em-imagens-processadas-por-ia/

⚠️
BR DEFENSE CENTER: SECURITY BRIEFING
28/08/2025 • Risco: ALTO
VULNERABILIDADE

Hackers podem roubar dados com comandos escondidos em imagens processadas por IA

RESUMO EXECUTIVO
A vulnerabilidade identificada pode permitir que hackers manipulem dados sensíveis em sistemas amplamente utilizados, exigindo que as empresas adotem medidas de segurança mais rigorosas para proteger informações críticas.

💼 IMPACTO DE NEGÓCIO

Financeiro
Possíveis perdas financeiras devido a vazamentos de dados e ações legais.
Operacional
Possibilidade de manipulação de dados do Calendário do Google sem confirmação do usuário.
Setores vulneráveis
['Tecnologia', 'Serviços financeiros', 'Saúde']

📊 INDICADORES CHAVE

Vulnerabilidade confirmada em múltiplos sistemas de IA. Indicador
Uso de esteganografia para esconder comandos maliciosos. Contexto BR
Demonstração de extração de dados do Calendário do Google. Urgência

⚡ AÇÕES IMEDIATAS

1 Verificar se sistemas de IA estão expostos a imagens não verificadas.
2 Implementar restrições de dimensão e confirmação de ações sensíveis em sistemas de IA.
3 Monitorar continuamente o uso de imagens e comandos em sistemas de IA para detectar atividades suspeitas.

🇧🇷 RELEVÂNCIA BRASIL

CISOs devem se preocupar com a segurança de dados em sistemas de IA, que são cada vez mais utilizados em processos empresariais. A exploração dessa vulnerabilidade pode levar a sérias consequências legais e de reputação.

⚖️ COMPLIANCE

Implicações diretas na conformidade com a LGPD, especialmente em relação à proteção de dados pessoais.
Status
ativo
Verificação
alta
BR Defense Center

Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).