Dlp

Microsoft amplia controles de DLP para proteger documentos do Copilot

A Microsoft anunciou a expansão dos controles de prevenção de perda de dados (DLP) para impedir que o assistente de IA Microsoft 365 Copilot processe documentos confidenciais do Word, Excel e PowerPoint, independentemente de onde estejam armazenados. Atualmente, as políticas de DLP do Microsoft Purview se aplicam apenas a arquivos armazenados no SharePoint ou OneDrive, não abrangendo arquivos locais. A mudança será implementada entre o final de março e abril de 2026, garantindo que os controles de DLP se apliquem a todos os documentos do Office. Essa atualização foi uma resposta ao feedback dos clientes que solicitavam uma proteção mais consistente. Após a implementação, o Copilot não poderá acessar documentos rotulados como restritos pelas políticas de DLP. A Microsoft também abordou um bug anterior que permitiu que o Copilot acessasse e resumisse e-mails confidenciais, mesmo quando protegidos por políticas de DLP. Embora o bug tenha afetado a funcionalidade do chat do Copilot, a empresa afirmou que o acesso foi restrito a usuários já autorizados. Essa atualização não altera as capacidades do Copilot, mas melhora a forma como os rótulos de sensibilidade são lidos e aplicados.

Erro no Microsoft 365 Copilot expõe e-mails confidenciais

A Microsoft confirmou um erro no Microsoft 365 Copilot que tem causado a exposição de e-mails confidenciais desde janeiro de 2023. O bug, identificado como CW1226324, afeta a funcionalidade de chat da aba de trabalho do Copilot, que resume incorretamente e-mails armazenados nas pastas de Itens Enviados e Rascunhos, incluindo mensagens com rótulos de confidencialidade. Esses rótulos foram criados para restringir o acesso a ferramentas automatizadas, mas o Copilot está ignorando essas configurações. A Microsoft começou a implementar uma correção em fevereiro, mas ainda não divulgou um cronograma para a resolução completa do problema. A empresa está monitorando a situação e contatando usuários afetados para verificar a eficácia da solução. Este incidente levanta preocupações significativas sobre a proteção de dados sensíveis e a conformidade com políticas de prevenção de perda de dados (DLP), especialmente em um contexto onde a segurança da informação é cada vez mais crítica para as organizações.

Vazamento de dados da DeepSeek expõe mais de 1 milhão de registros

Em janeiro de 2025, a empresa chinesa de inteligência artificial DeepSeek sofreu um vazamento de dados que comprometeu mais de 1 milhão de registros sensíveis. A Wiz Research identificou um banco de dados ClickHouse acessível publicamente, permitindo controle total sobre as operações do banco, incluindo acesso a dados internos como histórico de chats e chaves secretas. Embora a DeepSeek tenha rapidamente corrigido a exposição, o incidente destaca os riscos associados ao vazamento de dados, que podem ser intencionais, como ataques de phishing, ou não intencionais, como erros humanos. Os vetores comuns de vazamento incluem configurações inadequadas de armazenamento em nuvem, vulnerabilidades em dispositivos finais e falhas na comunicação por e-mail. As consequências de tais vazamentos podem ser devastadoras, incluindo multas severas por não conformidade com regulamentos como o GDPR e o CCPA, perda de propriedade intelectual e danos à reputação da empresa. Para mitigar esses riscos, as organizações devem implementar práticas como acesso de menor privilégio, prevenção de perda de dados (DLP), classificação de dados sensíveis, auditorias e treinamento adequado para funcionários.

Evolução da Prevenção de Vazamento de Dados para IA Generativa

As plataformas de IA generativa, como ChatGPT e Copilot, estão se tornando comuns nas organizações, trazendo eficiência, mas também novos desafios na prevenção de vazamentos de dados. Informações sensíveis podem ser expostas através de prompts de chat, arquivos enviados para resumo ou plugins de navegador que contornam controles de segurança. As soluções tradicionais de DLP (Data Loss Prevention) frequentemente não conseguem detectar esses eventos. Tecnologias como o Fidelis Network Detection and Response (NDR) oferecem uma abordagem baseada em rede para controlar a atividade de IA, permitindo que as equipes monitorem, apliquem políticas e auditem o uso de IA generativa.