OpenAI desmantela grupos que usavam ChatGPT para desenvolver malware

No dia 8 de outubro de 2025, a OpenAI anunciou a interrupção de três grupos de atividade que estavam utilizando sua ferramenta de inteligência artificial, o ChatGPT, para facilitar o desenvolvimento de malware. Um dos grupos, de língua russa, usou o chatbot para criar e aprimorar um trojan de acesso remoto (RAT) e um ladrão de credenciais, buscando evitar a detecção. A OpenAI observou que esses usuários estavam associados a grupos criminosos que compartilhavam evidências de suas atividades em canais do Telegram. Embora os modelos de linguagem da OpenAI tenham se recusado a atender a pedidos diretos para criar conteúdo malicioso, os criminosos contornaram essa limitação, gerando códigos que foram montados para criar fluxos de trabalho maliciosos. Outro grupo, da Coreia do Norte, utilizou o ChatGPT para desenvolver malware e ferramentas de comando e controle, enquanto um terceiro grupo, da China, focou em campanhas de phishing. Além disso, a OpenAI bloqueou contas que estavam envolvidas em fraudes e operações de influência, incluindo atividades de vigilância ligadas a entidades governamentais chinesas. A empresa destacou que os atores de ameaça estão se adaptando para ocultar sinais de que o conteúdo foi gerado por uma ferramenta de IA, o que representa um novo desafio para a segurança cibernética.

Fonte: https://thehackernews.com/2025/10/openai-disrupts-russian-north-korean.html

⚠️
BR DEFENSE CENTER: SECURITY BRIEFING
08/10/2025 • Risco: ALTO
MALWARE

OpenAI desmantela grupos que usavam ChatGPT para desenvolver malware

RESUMO EXECUTIVO
O uso de ferramentas de IA por grupos criminosos para desenvolver malware e realizar phishing representa um risco significativo para a segurança cibernética. As organizações devem estar cientes das táticas em evolução e implementar medidas de mitigação adequadas para proteger seus ativos.

💼 IMPACTO DE NEGÓCIO

Financeiro
Potenciais perdas financeiras devido a fraudes e vazamentos de dados.
Operacional
Desenvolvimento de malware e campanhas de phishing com uso de IA
Setores vulneráveis
['Tecnologia', 'Finanças', 'Setor Público']

📊 INDICADORES CHAVE

Três grupos de atividade maliciosa desmantelados Indicador
Uso de várias contas do ChatGPT para desenvolvimento de malware Contexto BR
Campanhas de phishing em inglês, chinês e japonês Urgência

⚡ AÇÕES IMEDIATAS

1 Revisar logs de acesso e atividades suspeitas em sistemas que utilizam IA.
2 Implementar filtros e monitoramento de atividades relacionadas ao uso de ferramentas de IA.
3 Monitorar continuamente atividades de phishing e tentativas de acesso não autorizado.

🇧🇷 RELEVÂNCIA BRASIL

CISOs devem se preocupar com a adaptação de táticas de ameaças que utilizam IA, o que pode aumentar a eficácia de ataques cibernéticos.

⚖️ COMPLIANCE

Implicações legais relacionadas à LGPD e proteção de dados.
Status
mitigado
Verificação
alta
BR Defense Center

Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).