O aumento do uso de Inteligência Artificial (IA), especialmente em chatbots como ChatGPT, Gemini e Claude, trouxe à tona novas vulnerabilidades. Pesquisadores do Instituto Alan Turing e da Anthropic identificaram uma técnica chamada ’envenenamento de IA’, onde apenas 250 arquivos maliciosos podem comprometer o aprendizado de um modelo de dados. Isso resulta em chatbots que aprendem informações erradas, levando a respostas incorretas ou até maliciosas. Existem dois tipos principais de envenenamento: o direto, que altera respostas específicas, e o indireto, que prejudica a performance geral. Um exemplo de ataque direto é o backdoor, onde o modelo é manipulado para responder de forma errada ao detectar um código específico. Já o ataque indireto envolve a criação de informações falsas que o modelo replica como verdade. Em março de 2023, a OpenAI suspendeu temporariamente o ChatGPT devido a um bug que expôs dados de usuários. Além disso, artistas têm utilizado dados envenenados como uma forma de proteger suas obras contra sistemas de IA que as utilizam sem autorização. Essa situação levanta preocupações sobre a segurança e a integridade dos sistemas de IA, especialmente em um cenário onde a desinformação pode ter consequências graves.
Fonte: https://canaltech.com.br/seguranca/envenenando-a-ia-hackers-sabotam-o-chatgpt-e-outras-ias-com-facilidade/
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
24/10/2025 • Risco: ALTO
TECNOLOGIA
Hackers envenenam IA como ChatGPT com facilidade
RESUMO EXECUTIVO
O envenenamento de IA representa um risco significativo para a segurança de sistemas amplamente utilizados, como o ChatGPT. A manipulação de dados pode levar a respostas erradas e desinformação, impactando diretamente a confiança do usuário e a conformidade regulatória.
💼 IMPACTO DE NEGÓCIO
Financeiro
Potenciais perdas financeiras devido à desinformação e danos à reputação.
Operacional
Respostas incorretas e potencial geração de desinformação.
Setores vulneráveis
['Tecnologia', 'Educação', 'Mídia']
📊 INDICADORES CHAVE
Apenas 250 arquivos maliciosos podem comprometer um modelo de IA.
Indicador
O bug que expôs dados do ChatGPT ocorreu em março de 2023.
Contexto BR
ALTO
Urgência
⚡ AÇÕES IMEDIATAS
1
Revisar os dados utilizados para treinar modelos de IA e implementar filtros para detectar informações maliciosas.
2
Desenvolver protocolos de segurança para monitorar e validar a integridade dos dados de treinamento.
3
Acompanhar continuamente as interações dos usuários com os chatbots para identificar padrões de respostas incorretas.
🇧🇷 RELEVÂNCIA BRASIL
CISOs devem se preocupar com a integridade dos sistemas de IA, que podem ser manipulados para gerar desinformação, afetando a reputação e a operação das empresas.
⚖️ COMPLIANCE
Implicações na LGPD, especialmente no que diz respeito ao uso e proteção de dados pessoais.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).