Vulnerabilidades em ChatGPT e Codex expõem dados sensíveis
Um novo relatório da Check Point revelou uma vulnerabilidade crítica no ChatGPT da OpenAI, que permitia a exfiltração de dados sensíveis sem o consentimento do usuário. A falha, que foi corrigida em 20 de fevereiro de 2026, explorava um canal de comunicação DNS oculto, permitindo que informações fossem enviadas para fora do ambiente sem que o sistema detectasse. Isso significa que um prompt malicioso poderia transformar uma conversa comum em um canal de vazamento de dados, expondo mensagens e arquivos carregados. Embora não haja evidências de que a vulnerabilidade tenha sido explorada maliciosamente, a descoberta destaca a necessidade de camadas adicionais de segurança em ambientes corporativos que utilizam IA. Além disso, uma vulnerabilidade separada no OpenAI Codex permitiu a injeção de comandos, comprometendo tokens de acesso do GitHub, o que poderia levar a um acesso não autorizado a repositórios. Ambas as falhas ressaltam a importância de uma arquitetura de segurança robusta para proteger dados sensíveis em sistemas de IA.
