Chatgpt

Nova falha no ChatGPT permite roubo de dados e histórico de conversas

Um relatório da Tenable Research revelou sete falhas de segurança na plataforma ChatGPT da OpenAI, que podem ser exploradas por cibercriminosos para roubar dados dos usuários e até controlar o chatbot. A principal vulnerabilidade identificada é a ‘injeção de prompt’, onde hackers enviam instruções maliciosas ao ChatGPT sem que o usuário perceba. Os especialistas demonstraram duas formas de ataque: a primeira envolve a inserção de um comentário malicioso em um blog, que pode ser ativado quando o usuário pede um resumo ao ChatGPT. A segunda é um ataque de clique zero, onde o hacker cria um site que, ao ser indexado pelo ChatGPT, pode comprometer o usuário sem qualquer interação. Além disso, a falha de ‘injeção de memória’ permite que comandos maliciosos sejam salvos no histórico do usuário, possibilitando o roubo de dados sensíveis em interações futuras. A OpenAI foi notificada sobre essas vulnerabilidades, que afetam os modelos ChatGPT 4o e GPT-5, mas ainda não há informações sobre correções.

Conversas no ChatGPT vazam para ferramenta de SEO do Google

Recentemente, foi descoberto que conversas realizadas no ChatGPT estavam vazando para o Google Search Console (GSC), uma ferramenta utilizada por desenvolvedores para monitorar o tráfego de pesquisas. O consultor Jason Packer, da Quantable, identificou que pesquisas feitas no ChatGPT, incluindo interações pessoais e profissionais, estavam sendo exibidas no GSC, o que levanta preocupações sobre a privacidade dos usuários. A OpenAI, responsável pelo ChatGPT, reconheceu a existência de um problema que afetou temporariamente o caminho de algumas buscas, mas não forneceu detalhes sobre a natureza do vazamento. Aproximadamente 200 pesquisas estranhas foram registradas, revelando que os prompts dos usuários não são tão privados quanto se poderia supor. Os especialistas sugerem que a OpenAI deve aumentar a transparência em relação a incidentes como este e reforçar a proteção da privacidade dos usuários, especialmente em um contexto onde a conformidade com a LGPD é crucial. O vazamento é considerado um incidente de segurança que pode impactar a confiança dos usuários e a reputação da OpenAI.

Pesquisadores apontam falhas de segurança preocupantes no ChatGPT

Pesquisadores da Tenable identificaram sete falhas de injeção de comandos no ChatGPT-4o, denominadas ‘HackedGPT’. Essas vulnerabilidades permitem que atacantes insiram comandos ocultos, roubem dados sensíveis e disseminem desinformação. As falhas incluem injeção indireta de comandos através de sites confiáveis, injeção de comandos com um clique, e bypass de mecanismos de segurança utilizando links maliciosos disfarçados. Embora a OpenAI tenha corrigido algumas dessas falhas em seu modelo GPT-5, várias ainda permanecem ativas, colocando milhões de usuários em risco. Os especialistas alertam que essas vulnerabilidades não apenas expõem o ChatGPT a ataques, mas também podem transformar a ferramenta em um vetor de ataque, coletando informações de conversas cotidianas. A Tenable recomenda que os fornecedores de IA reforcem suas defesas contra injeções de comandos, garantindo que os mecanismos de segurança funcionem conforme o esperado. A situação é preocupante, especialmente considerando que ferramentas como o Google Gemini também podem ser suscetíveis a problemas semelhantes, devido à integração com serviços de e-mail.

Vulnerabilidades no ChatGPT podem expor dados pessoais de usuários

Pesquisadores de cibersegurança revelaram um conjunto de sete vulnerabilidades que afetam os modelos GPT-4o e GPT-5 da OpenAI, incluindo técnicas de injeção de prompt que podem ser exploradas por atacantes para roubar informações pessoais dos usuários. As falhas permitem que um invasor manipule o comportamento esperado do modelo de linguagem, levando-o a executar ações maliciosas sem o conhecimento do usuário. Entre as vulnerabilidades estão a injeção de prompt indireta via sites confiáveis, a injeção de prompt sem clique e a injeção de memória, que podem comprometer a privacidade dos dados armazenados nas interações do ChatGPT. A OpenAI já tomou medidas para corrigir algumas dessas falhas, mas a pesquisa destaca a necessidade de mecanismos de segurança mais robustos. Além disso, o estudo alerta para a crescente complexidade das ameaças, como ataques de injeção de prompt que podem ser realizados com um número reduzido de documentos maliciosos, tornando esses ataques mais acessíveis para potenciais invasores. A situação exige atenção redobrada de empresas e profissionais de segurança da informação, especialmente em um cenário onde a proteção de dados pessoais é cada vez mais crítica.

Aplicativos maliciosos do ChatGPT rastreiam usuários e roubam dados

O crescimento explosivo de aplicativos móveis impulsionados por IA criou um ambiente propício para cibercriminosos que exploram a confiança nas marcas. Pesquisadores da Appknox identificaram um aumento preocupante de clones falsos do ChatGPT, DALL·E e WhatsApp em lojas de aplicativos alternativas, que utilizam marcas conhecidas para enganar usuários e comprometer dispositivos empresariais. Em 2024, aplicativos relacionados à IA representaram 13% de todos os downloads globais, totalizando 17 bilhões, tornando-se alvos atraentes para ataques. As ameaças variam de adware oportunista a infraestruturas de spyware. Um exemplo alarmante é o WhatsApp Plus, que se disfarça como uma versão aprimorada do mensageiro, mas contém malware que solicita permissões extensivas, permitindo que atacantes interceptem códigos de autenticação e acessem contatos. A análise de tráfego de rede revelou técnicas de mascaramento de tráfego malicioso. Para ambientes corporativos, as implicações são catastróficas, com riscos de violação de normas como GDPR e HIPAA, podendo resultar em multas milionárias. Os pesquisadores ressaltam que os mecanismos tradicionais de verificação de aplicativos falham em prevenir ameaças pós-lançamento, destacando a necessidade de monitoramento contínuo e educação dos usuários sobre downloads seguros.

Nova técnica de camuflagem explora ChatGPT para servir conteúdo falso

Pesquisadores de segurança revelaram uma nova técnica de ataque chamada “camuflagem consciente do agente”, que explora como ferramentas de busca baseadas em IA, como o ChatGPT e o navegador Atlas da OpenAI, recuperam conteúdo da web. Essa vulnerabilidade permite que atacantes sirvam versões diferentes de páginas da web para crawlers de IA, enquanto usuários humanos veem conteúdo legítimo. A técnica, que se destaca pela sua simplicidade, utiliza regras condicionais que detectam cabeçalhos de agentes de usuário de IA. Em experimentos controlados, foi demonstrado que, ao acessar um site, crawlers de IA recebiam informações fabricadas, enquanto visitantes humanos viam a versão verdadeira. Isso levanta preocupações sobre a falta de validação de proveniência nos sistemas de recuperação de informações de IA, que tratam o conteúdo como verdade absoluta. As implicações vão além de ataques à reputação, afetando também processos de contratação automatizados. Para mitigar esses riscos, recomenda-se a implementação de defesas em múltiplas camadas, incluindo a verificação criptográfica da autenticidade das informações e protocolos de validação para crawlers. A pesquisa destaca a necessidade urgente de monitoramento contínuo e validação de saídas geradas por IA, especialmente em decisões críticas como contratações e conformidade.

Hackers exploram vulnerabilidade do navegador Atlas para injetar código malicioso no ChatGPT

Pesquisadores de cibersegurança da LayerX identificaram uma vulnerabilidade crítica no navegador Atlas da OpenAI, que permite a injeção de instruções maliciosas no sistema de memória do ChatGPT por meio de ataques de Cross-Site Request Forgery (CSRF). Essa falha, divulgada de forma responsável à OpenAI em 27 de outubro de 2025, representa um risco significativo para usuários que dependem da IA para codificação e gerenciamento de sistemas. O ataque se aproveita de uma fraqueza na forma como o Atlas lida com sessões autenticadas, permitindo que atacantes utilizem credenciais de autenticação de vítimas para injetar instruções ocultas na memória do ChatGPT. Uma vez comprometida, essa memória contaminada pode executar código remoto e potencialmente conceder controle sobre contas de usuários e sistemas conectados. Além disso, o navegador Atlas demonstrou deficiências alarmantes em detectar e bloquear ataques de phishing, aumentando ainda mais a vulnerabilidade dos usuários. A pesquisa revelou que apenas 6 de 103 páginas maliciosas foram bloqueadas, resultando em uma taxa de falha de 94,2%. Essa situação é particularmente preocupante, pois a memória contaminada persiste em todos os dispositivos onde o usuário acessa sua conta, dificultando a detecção e remediação do ataque.

Vulnerabilidade no ChatGPT Atlas permite injeção de código malicioso

Pesquisadores de cibersegurança identificaram uma nova vulnerabilidade no navegador ChatGPT Atlas da OpenAI, que pode permitir que agentes maliciosos injetem instruções prejudiciais na memória do assistente de inteligência artificial. Essa falha, baseada em um erro de falsificação de solicitação entre sites (CSRF), possibilita que as instruções maliciosas persistam entre dispositivos e sessões, comprometendo a segurança do usuário. A memória, introduzida pela OpenAI em fevereiro de 2024, visa personalizar as interações, mas, se corrompida, pode ser utilizada para executar códigos arbitrários sem o conhecimento do usuário. A vulnerabilidade é agravada pela falta de controles robustos contra phishing no ChatGPT Atlas, tornando os usuários até 90% mais expostos em comparação com navegadores tradicionais como Google Chrome e Microsoft Edge. O ataque pode ser desencadeado por meio de engenharia social, onde o usuário é induzido a clicar em um link malicioso. Uma vez que a memória do ChatGPT é comprometida, comandos normais podem ativar a execução de códigos maliciosos, resultando em escalonamento de privilégios ou exfiltração de dados. Essa situação representa um risco significativo, pois transforma uma funcionalidade útil em uma ferramenta de ataque.

Hackers envenenam IA como ChatGPT com facilidade

O aumento do uso de Inteligência Artificial (IA), especialmente em chatbots como ChatGPT, Gemini e Claude, trouxe à tona novas vulnerabilidades. Pesquisadores do Instituto Alan Turing e da Anthropic identificaram uma técnica chamada ’envenenamento de IA’, onde apenas 250 arquivos maliciosos podem comprometer o aprendizado de um modelo de dados. Isso resulta em chatbots que aprendem informações erradas, levando a respostas incorretas ou até maliciosas. Existem dois tipos principais de envenenamento: o direto, que altera respostas específicas, e o indireto, que prejudica a performance geral. Um exemplo de ataque direto é o backdoor, onde o modelo é manipulado para responder de forma errada ao detectar um código específico. Já o ataque indireto envolve a criação de informações falsas que o modelo replica como verdade. Em março de 2023, a OpenAI suspendeu temporariamente o ChatGPT devido a um bug que expôs dados de usuários. Além disso, artistas têm utilizado dados envenenados como uma forma de proteger suas obras contra sistemas de IA que as utilizam sem autorização. Essa situação levanta preocupações sobre a segurança e a integridade dos sistemas de IA, especialmente em um cenário onde a desinformação pode ter consequências graves.

OpenAI enfrenta mandado do DHS por dados de usuários do ChatGPT

O Departamento de Segurança Interna dos EUA (DHS) emitiu um mandado inédito exigindo que a OpenAI forneça informações detalhadas sobre as conversas de usuários do ChatGPT, em um caso criminal relacionado a material de exploração infantil. O mandado, que foi deslacrado em Maine, representa um marco na interseção entre inteligência artificial e justiça criminal. A investigação, que começou em 2019, revelou que o suspeito mencionou o uso do ChatGPT durante comunicações com agentes infiltrados. Embora os dados da OpenAI não tenham sido necessários para identificar o suspeito, a solicitação levanta questões sobre privacidade e a responsabilidade das empresas de IA em relação a dados de usuários. A OpenAI já processou milhares de conteúdos relacionados a exploração infantil e atendeu a várias solicitações governamentais. Este caso destaca a crescente tendência de as autoridades considerarem plataformas de IA como fontes de evidência, exigindo uma reavaliação das práticas de coleta de dados e proteção de privacidade por parte das empresas de tecnologia.

Grupos APT abusam do ChatGPT para criar malware avançado e kits de phishing

Pesquisadores de segurança da Volexity descobriram que grupos de ameaças alinhados à China, identificados como UTA0388, estão utilizando plataformas de inteligência artificial como o ChatGPT para aprimorar suas capacidades de ciberataque. Desde junho de 2025, esses atores têm conduzido campanhas de spear phishing, desenvolvendo malware sofisticado e criando e-mails de phishing multilíngues que visam organizações na América do Norte, Ásia e Europa. As campanhas do UTA0388 demonstram um nível de sofisticação sem precedentes ao usar Modelos de Linguagem Grande (LLMs) para automatizar atividades maliciosas. Através da criação de personas fictícias e organizações de pesquisa inventadas, os atacantes conseguem enganar suas vítimas para que baixem cargas maliciosas. Mais de 50 e-mails de phishing únicos foram observados, cada um com uma fluência impressionante, mas frequentemente sem coerência semântica, indicando uma geração impulsionada por IA. A análise técnica revelou cinco variantes distintas de um malware chamado GOVERSHELL, cada uma sendo uma reescrita completa, sugerindo o uso de geração de código assistida por IA. A integração da IA nas operações cibercriminosas sinaliza uma nova era de atividades de ameaças automatizadas e em larga escala, exigindo que as organizações adotem novas estratégias de defesa, como a detecção baseada em comportamento e o compartilhamento de inteligência sobre ameaças.

77 dos Funcionários Compartilham Segredos da Empresa no ChatGPT

Um novo relatório revela que 77% dos funcionários compartilham informações confidenciais da empresa em plataformas de inteligência artificial generativa, como o ChatGPT, resultando em violações de políticas de segurança. O estudo mostra que quase metade dos colaboradores interage regularmente com essas ferramentas, e 40% dos arquivos enviados contêm dados regulados, como informações pessoais identificáveis (PII) e dados de cartões de pagamento (PCI). Apesar das políticas de segurança que enfatizam o controle de arquivos, muitos funcionários estão copiando e colando informações sensíveis diretamente em campos de entrada de IA, o que dificulta a detecção por sistemas de auditoria de segurança. Além disso, 87% das atividades de chat observadas ocorrem em contas não gerenciadas, aumentando o risco de vazamentos de dados. O relatório sugere que as empresas precisam repensar suas estratégias de segurança, mudando o foco de controles tradicionais de prevenção de perda de dados (DLP) para monitoramento dinâmico de fluxos de dados baseados em navegador e atividades em sessões de SaaS não gerenciadas. Medidas como políticas de acesso adaptativas e análise comportamental em tempo real são essenciais para mitigar esses riscos emergentes.

Falha no ChatGPT permitia roubar dados do Gmail sem cliques

Uma vulnerabilidade na ferramenta Deep Research do ChatGPT, descoberta pela Radware, permitia que dados do Gmail de usuários fossem coletados sem que eles precisassem clicar em qualquer link. O recurso, lançado em fevereiro, foi projetado para realizar pesquisas mais robustas e rápidas, mas, ao se conectar às contas do Gmail, expôs informações pessoais como nome e endereço. A Radware testou a falha enviando e-mails a si mesmos com instruções ocultas, que permitiram que a IA coletasse dados e os enviasse a um endereço controlado pelos pesquisadores. A OpenAI, responsável pelo ChatGPT, corrigiu a falha em 3 de setembro e afirmou que não há evidências de que a vulnerabilidade tenha sido explorada por hackers. No entanto, a possibilidade de uso de dados para ataques de phishing no futuro permanece. A empresa ressaltou que a segurança é uma prioridade e que a análise da Radware contribuiu para a melhoria das ferramentas. Este incidente destaca a necessidade de vigilância contínua em relação à segurança de ferramentas de IA, especialmente aquelas que interagem com dados sensíveis dos usuários.

Vulnerabilidade no ChatGPT permite vazamento de dados do Gmail

Pesquisadores de cibersegurança revelaram uma falha de zero-click no agente Deep Research do ChatGPT da OpenAI, que pode permitir que um atacante vaze dados sensíveis da caixa de entrada do Gmail com um único e-mail malicioso, sem qualquer ação do usuário. Nomeado de ShadowLeak, o ataque utiliza injeções de prompt indiretas escondidas em HTML de e-mails, como texto branco sobre fundo branco, para que o usuário não perceba as instruções. Quando o usuário solicita ao ChatGPT que analise seus e-mails, o agente pode ser induzido a extrair informações pessoais e enviá-las para um servidor externo. Essa vulnerabilidade é particularmente preocupante, pois ocorre diretamente na infraestrutura em nuvem da OpenAI, contornando defesas locais e corporativas. O ataque pode ser ampliado para outros conectores suportados pelo ChatGPT, como Dropbox e Google Drive. Além disso, a pesquisa também destaca como o ChatGPT pode ser manipulado para resolver CAPTCHAs, evidenciando a necessidade de integridade de contexto e monitoramento contínuo. A OpenAI já abordou a questão em agosto de 2025, após a divulgação responsável do problema em junho do mesmo ano.

Vulnerabilidade 0-Click do ChatGPT Permite Exfiltração de Dados do Gmail

Pesquisadores descobriram uma vulnerabilidade crítica de zero-click no agente Deep Research do ChatGPT, que permite a atacantes exfiltrar dados sensíveis do Gmail sem qualquer interação do usuário. Essa falha, que opera inteiramente nos servidores da OpenAI, contorna as defesas de segurança tradicionais ao utilizar técnicas de exfiltração do lado do serviço. O mecanismo de roubo de dados ocorre quando um e-mail aparentemente inocente, contendo instruções HTML ocultas, é enviado para a caixa de entrada da vítima. Quando o agente processa os e-mails, ele executa esses comandos invisíveis, coletando dados pessoais e transmitindo-os para servidores controlados pelos atacantes. Essa vulnerabilidade representa uma evolução perigosa de ataques, passando de métodos do lado do cliente para ataques do lado do serviço, criando uma lacuna de segurança para organizações que utilizam agentes de IA. As empresas que integram o Deep Research com serviços de e-mail devem reavaliar as permissões do agente e implementar monitoramento adicional das solicitações de saída. Até que um patch seja lançado, restringir o acesso do agente a caixas de entrada sensíveis pode ajudar a mitigar os riscos.

Hackers norte-coreanos geram ID militar falsa da Coreia do Sul usando ChatGPT

Hackers da Coreia do Norte, identificados como Kimsuky, utilizaram o ChatGPT para criar uma identificação militar falsa, que foi empregada em ataques de spear-phishing contra instituições de defesa da Coreia do Sul. O Genians Security Center (GSC) reportou que, apesar das restrições implementadas pela OpenAI para evitar a geração de conteúdo malicioso, os criminosos conseguiram contornar essas barreiras ao solicitar um ‘design de amostra’ ou ‘mock-up’. O uso de imagens disponíveis publicamente facilitou a manipulação do modelo de IA. A criação de documentos de identificação falsos é ilegal e representa um risco significativo, especialmente em contextos de segurança nacional. O ataque destaca a vulnerabilidade das instituições de defesa a métodos inovadores de engenharia social, que podem comprometer informações sensíveis e a segurança nacional. O GSC não revelou o nome da instituição alvo, mas enfatizou a necessidade de cautela ao lidar com ferramentas de IA, que podem ser exploradas para fins ilícitos.

Cibercriminosos Usam ChatGPT para Driblar Antivírus

Um novo ataque de ameaça persistente avançada (APT) atribuído ao grupo Kimsuky, vinculado à Coreia do Norte, destaca o uso de ferramentas de IA generativa, como o ChatGPT, para aprimorar campanhas de spear-phishing. Em julho de 2025, a campanha explorou imagens deepfake de crachás de funcionários militares sul-coreanos para infiltrar entidades relacionadas à defesa. Os atacantes enviaram e-mails de phishing que imitavam domínios de instituições de defesa da Coreia do Sul, contendo arquivos maliciosos disfarçados. A análise revelou que o ChatGPT foi manipulado para gerar documentos falsificados, contornando restrições de replicação de ID. Os arquivos maliciosos, uma vez executados, utilizavam scripts ofuscados para se conectar a servidores de comando e controle, permitindo o roubo de dados e o controle remoto de dispositivos infectados. A campanha ilustra uma tendência crescente de atores patrocinados por estados que utilizam IA para engenharia social e entrega de malware, destacando a ineficácia das soluções antivírus tradicionais contra comandos ofuscados e conteúdo gerado por IA. A detecção e resposta em endpoints (EDR) foi identificada como essencial para neutralizar essas ameaças, evidenciando a necessidade de monitoramento proativo para evitar que organizações sejam vítimas de estratégias APT habilitadas por IA.

Vazamentos de chats do ChatGPT revelam usuários como terapeutas e advogados

Recentemente, surgiram preocupações sobre a privacidade das conversas no ChatGPT, após a OpenAI cancelar a funcionalidade que tornava as interações buscáveis, resultando na exposição de dados sensíveis. Uma análise de 1.000 conversas, realizada pela SafetyDetective, revelou que muitos usuários compartilham informações pessoais e discutem questões delicadas, como saúde mental e problemas legais, com a IA, tratando-a como um terapeuta ou consultor. A pesquisa indicou que 60% das interações se enquadravam na categoria de ‘consulta profissional’, levantando questões sobre a confiança dos usuários na precisão das respostas da IA. Além disso, a falta de compreensão sobre o que significa tornar as conversas buscáveis e a possibilidade de vazamentos de dados pessoais expõem os usuários a riscos como phishing e roubo de identidade. Especialistas recomendam que as empresas de IA tornem seus avisos mais claros e ocultem informações pessoais antes de disponibilizar as conversas na internet. A situação destaca a necessidade de cautela ao compartilhar informações sensíveis com chatbots, independentemente da percepção de privacidade da tecnologia.

Microsoft alerta sobre ChatGPT falso que espalha ransomware

Um relatório da Microsoft revelou que hackers estão utilizando uma versão modificada do aplicativo desktop do ChatGPT para disseminar um trojan de acesso remoto conhecido como Pipemagic. Este malware, desenvolvido pelo grupo de cibercriminosos Storm-2460, tem como alvo setores como imobiliário, financeiro e tecnológico em várias regiões, incluindo América do Sul, América do Norte, Europa e Oriente Médio. A gravidade da situação é acentuada pela combinação de um backdoor modular, que permite acesso direto aos sistemas comprometidos, e uma vulnerabilidade zero-day (CVE-2025-29824) no Windows, que ainda não possui correção. A Kaspersky também alertou sobre a campanha, destacando casos na Arábia Saudita e na Ásia. Os ataques podem resultar no vazamento de dados pessoais, credenciais e informações financeiras, além da instalação de ransomware que criptografa arquivos e exige pagamento para recuperação. A recomendação é que os usuários evitem baixar arquivos ou executar programas de fontes desconhecidas, especialmente aqueles que imitam softwares populares como o ChatGPT.

Malware PipeMagic se disfarça de ChatGPT para espalhar ransomware

A Microsoft Threat Intelligence revelou uma campanha de malware sofisticada, onde criminosos cibernéticos disfarçam um software malicioso como a popular aplicação de desktop ChatGPT para implantar ransomware em diversos setores ao redor do mundo. O malware, denominado PipeMagic, combina engenharia social com capacidades técnicas avançadas, visando organizações nos setores de TI, financeiro e imobiliário, especialmente nos Estados Unidos, Europa, América do Sul e Oriente Médio.

O PipeMagic explora uma vulnerabilidade crítica do Windows (CVE-2025-29824) para obter privilégios elevados. Os atacantes utilizam a ferramenta certutil para baixar arquivos MSBuild maliciosos de sites legítimos previamente comprometidos. Esses arquivos parecem ser a aplicação ChatGPT, mas contêm código malicioso que ativa o PipeMagic diretamente na memória, dificultando a detecção.