Um novo relatório revela que 77% dos funcionários compartilham informações confidenciais da empresa em plataformas de inteligência artificial generativa, como o ChatGPT, resultando em violações de políticas de segurança. O estudo mostra que quase metade dos colaboradores interage regularmente com essas ferramentas, e 40% dos arquivos enviados contêm dados regulados, como informações pessoais identificáveis (PII) e dados de cartões de pagamento (PCI). Apesar das políticas de segurança que enfatizam o controle de arquivos, muitos funcionários estão copiando e colando informações sensíveis diretamente em campos de entrada de IA, o que dificulta a detecção por sistemas de auditoria de segurança. Além disso, 87% das atividades de chat observadas ocorrem em contas não gerenciadas, aumentando o risco de vazamentos de dados. O relatório sugere que as empresas precisam repensar suas estratégias de segurança, mudando o foco de controles tradicionais de prevenção de perda de dados (DLP) para monitoramento dinâmico de fluxos de dados baseados em navegador e atividades em sessões de SaaS não gerenciadas. Medidas como políticas de acesso adaptativas e análise comportamental em tempo real são essenciais para mitigar esses riscos emergentes.
Fonte: https://cyberpress.org/data-leaks-on-chatgpt/
⚠️BR DEFENSE CENTER: SECURITY BRIEFING
08/10/2025 • Risco: ALTO
VAZAMENTO
77% dos Funcionários Compartilham Segredos da Empresa no ChatGPT
RESUMO EXECUTIVO
O uso crescente de ferramentas de IA generativa, como o ChatGPT, por funcionários representa um risco significativo para a segurança de dados corporativos. Com 77% dos colaboradores compartilhando informações confidenciais e 40% dos arquivos enviados contendo dados regulados, as empresas precisam urgentemente revisar suas políticas de segurança para evitar vazamentos e garantir a conformidade com a legislação.
💼 IMPACTO DE NEGÓCIO
Financeiro
Possíveis multas e danos à reputação devido a vazamentos de dados.
Operacional
Vazamento de informações confidenciais e violação de políticas de segurança.
Setores vulneráveis
['Tecnologia', 'Serviços Financeiros', 'Saúde']
📊 INDICADORES CHAVE
77% dos funcionários compartilham informações confidenciais.
Indicador
40% dos arquivos enviados contêm dados regulados.
Contexto BR
87% das atividades de chat ocorrem em contas não gerenciadas.
Urgência
⚡ AÇÕES IMEDIATAS
1
Revisar os logs de acesso e monitorar atividades em plataformas de IA.
2
Implementar políticas de acesso adaptativas que restrinjam o compartilhamento de dados sensíveis.
3
Monitorar continuamente o uso de ferramentas de IA e sessões de SaaS não gerenciadas.
🇧🇷 RELEVÂNCIA BRASIL
CISOs devem se preocupar com a segurança de dados em um ambiente onde ferramentas de IA são amplamente utilizadas, pois isso pode levar a vazamentos significativos e comprometer a conformidade com a LGPD.
⚖️ COMPLIANCE
Implicações diretas na conformidade com a LGPD, que exige proteção rigorosa de dados pessoais.
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).