Chatgpt

Senhas geradas por ChatGPT e Gemini não são seguras, alertam especialistas

Especialistas da empresa de cibersegurança Irregular emitiram um alerta sobre as vulnerabilidades das senhas geradas por ferramentas de inteligência artificial, como ChatGPT, Gemini e Claude. A análise revelou que, embora essas senhas pareçam complexas e seguras, na realidade, elas podem ser facilmente decifradas por cibercriminosos. Durante os testes, foram solicitadas senhas de 16 caracteres que incluíssem letras maiúsculas, minúsculas, números e caracteres especiais. Apesar de muitos verificadores online indicarem que essas senhas eram robustas, os pesquisadores descobriram que as senhas apresentavam padrões comuns, tornando-as previsíveis. Por exemplo, ao solicitar 50 senhas ao Claude, apenas 30 eram únicas, e muitas começavam e terminavam com os mesmos caracteres. O Gemini 3 Pro se destacou ao gerar senhas menos padronizadas, mas ainda assim alertou que essas senhas não deveriam ser usadas em contas sensíveis. O estudo destaca a necessidade de cautela ao utilizar senhas geradas por IA, especialmente em contas que lidam com informações críticas.

OpenAI inicia testes de anúncios no ChatGPT para usuários gratuitos e pagos

A OpenAI confirmou que está testando anúncios no ChatGPT, tanto para contas gratuitas quanto para as pagas de $8. A novidade já é visível em dispositivos Android, onde a empresa implementou uma experiência de onboarding em tela cheia para apresentar os anúncios aos usuários. Durante essa introdução, a OpenAI assegura que os anúncios não afetarão as respostas do ChatGPT e estarão claramente separados e rotulados. Embora a empresa não compartilhe informações pessoais com os anunciantes, o conteúdo da conversa atual pode influenciar os anúncios exibidos. Os usuários têm a opção de ocultar anúncios, entender o motivo de sua exibição e limpar dados relacionados a anúncios. Os anúncios são apresentados em um bloco rotulado como ‘Patrocinado’, e os usuários podem interagir com eles através de um menu de opções. A OpenAI também criou uma nova página de ‘Controles de Anúncios’ nas configurações, permitindo que os usuários gerenciem seu histórico e interesses. Importante ressaltar que os anúncios não aparecerão para usuários Plus, Pro, Business e Enterprise. A OpenAI reafirma seu compromisso com a privacidade, garantindo que as conversas dos usuários não serão compartilhadas com anunciantes e que nunca venderá dados de usuários.

Chefe de cibersegurança dos EUA compartilha documentos sigilosos no ChatGPT

Madhu Gottumukkala, chefe interino da CISA, fez o upload de documentos sigilosos do governo Trump no ChatGPT, gerando preocupações sobre a segurança da informação. Os arquivos, marcados como ‘apenas para uso oficial’, acionaram alertas de segurança automatizados ao serem carregados na plataforma da OpenAI. Apesar de uma autorização especial para usar a ferramenta, um porta-voz da CISA afirmou que o uso era limitado e de curto prazo. Especialistas do Departamento de Segurança Interna estão investigando se essa ação comprometeu a segurança nacional, uma vez que o upload de informações sensíveis em uma IA pública pode resultar em vazamentos. Este incidente não é isolado, já que Gottumukkala enfrentou problemas anteriores, incluindo uma reprovação em um teste de polígrafo de contrainteligência. A situação levanta questões críticas sobre a proteção de dados governamentais e a responsabilidade no uso de tecnologias emergentes.

Cuidado com a ajuda 16 extensões de ChatGPT roubam contas

Pesquisadores da LayerX Security identificaram 16 extensões de navegador maliciosas que se disfarçam como ferramentas de produtividade para o ChatGPT, mas que têm como objetivo roubar informações e credenciais dos usuários. Essas extensões não atacam diretamente o chatbot, mas aproveitam-se do login do usuário para capturar suas credenciais. Todas as extensões foram criadas pelo mesmo autor, que as publicou em plataformas como a Chrome Web Store, onde uma delas chegou a receber o selo ‘Em Destaque’, conferindo-lhe uma aparência de legitimidade. Apesar de terem sido baixadas apenas cerca de 900 vezes, a preocupação reside na confiança que os usuários depositam em ferramentas desse tipo. Os hackers utilizam tokens de sessão, que são chaves temporárias que permitem ao navegador reconhecer um usuário logado, para se passar por eles e acessar dados sensíveis, incluindo conversas com o chatbot e informações corporativas em plataformas como Slack e Google Drive. Os pesquisadores alertam para a necessidade de tratar qualquer extensão relacionada a IA como um aplicativo de alto risco e recomendam a remoção de ferramentas não reconhecidas.

OpenAI inicia exibição de anúncios no ChatGPT nos EUA

A OpenAI anunciou que começará a exibir anúncios no ChatGPT para usuários com assinatura gratuita ou a de $8, mas os custos para anunciantes podem ser elevados. Embora a empresa não tenha revelado o preço exato, um relatório indica que a taxa pode chegar a até $60 por mil visualizações, o que é comparável ao custo de anúncios em transmissões ao vivo da NFL. Os anúncios aparecerão abaixo das respostas geradas pela IA, e a OpenAI garantiu que não usará informações pessoais dos usuários, incluindo dados de saúde, para treinar seus modelos de anúncios. Além disso, a empresa afirmou que os anúncios não influenciarão as respostas do ChatGPT. Os anunciantes receberão dados sobre impressões e visualizações, mas a OpenAI não divulgará quantos cliques os anúncios geram, o que pode ser um indicativo de uma taxa de cliques (CTR) baixa. Para evitar anúncios, os usuários podem optar pela assinatura do ChatGPT Plus, que custa $20. A implementação dos anúncios está prevista para as próximas semanas.

OpenAI testa atualização para o recurso de chat temporário do ChatGPT

A OpenAI está implementando uma atualização significativa para o recurso de chat temporário do ChatGPT, que permitirá aos usuários manter a personalização durante as conversas temporárias, enquanto ainda bloqueia a influência desse chat na conta principal. O chat temporário é uma funcionalidade que inicia uma conversa sem histórico, não utilizando memórias ou conversas anteriores, mesmo com a memória ativada. Com a nova atualização, o chat temporário poderá acessar preferências de personalização, como estilo e tom, mas essa função pode ser desativada a qualquer momento. Além disso, a OpenAI poderá manter uma cópia do chat por até 30 dias por motivos de segurança. Recentemente, a empresa também introduziu um modelo de previsão de idade, que pode restringir contas de usuários adultos que são erroneamente identificados como adolescentes, limitando suas interações em tópicos sensíveis. Embora as contas restritas ainda possam aprender e criar, elas não poderão discutir certos assuntos. A OpenAI alerta que seu modelo de IA não é infalível e pode levar a erros de classificação. Essas mudanças visam melhorar a experiência do usuário, mas também levantam questões sobre privacidade e segurança de dados.

OpenAI implementa modelo de previsão de idade no ChatGPT

A OpenAI está lançando um novo modelo de previsão de idade no ChatGPT, com o objetivo de detectar a faixa etária dos usuários e aplicar restrições de segurança para prevenir o uso inadequado por adolescentes. A empresa busca evitar que conteúdos adultos ou potencialmente perigosos sejam acessados por usuários menores de 18 anos sem o consentimento dos pais. O modelo de detecção de idade analisa os tópicos abordados nas conversas e os horários de uso do ChatGPT para fazer suas previsões. No entanto, a OpenAI alerta que o sistema pode cometer erros, classificando erroneamente adultos como adolescentes. Para aqueles que forem identificados incorretamente, existe a opção de verificação de idade, que pode ser feita através do envio de uma selfie ao vivo e de um documento de identidade emitido pelo governo. Após a verificação, se confirmada a idade, as restrições adicionais serão removidas. Essa funcionalidade está sendo implementada globalmente e se aplicará automaticamente a todas as contas do ChatGPT. A OpenAI também garante que as informações enviadas para verificação serão excluídas em até sete dias após a confirmação da idade.

Google não planeja anúncios no Gemini, enquanto ChatGPT testa publicidade

Recentemente, a OpenAI começou a testar anúncios no ChatGPT nos Estados Unidos, tanto para usuários da conta gratuita quanto para assinantes do plano Go, que custa US$ 8 por mês. Em contraste, o CEO da Google DeepMind, Demis Hassabis, afirmou que o Gemini, a nova plataforma de inteligência artificial da Google, não terá anúncios por enquanto. Durante o Fórum Econômico Mundial em Davos, Hassabis comentou que achou interessante a decisão da OpenAI de introduzir anúncios tão cedo, sugerindo que isso pode ser uma estratégia para aumentar a receita. O ChatGPT planeja implementar anúncios em breve, mas apenas para usuários gratuitos e do plano Go, enquanto as contas pagas, como Plus e Pro, permanecerão livres de publicidade. Os anúncios aparecerão apenas quando houver produtos ou serviços patrocinados relevantes ao tema da conversa, e os usuários poderão entender o motivo da exibição do anúncio e fornecer feedback. No entanto, não haverá anúncios em discussões sobre saúde, saúde mental ou política. Essa movimentação levanta questões sobre a monetização de plataformas de IA e suas implicações para os usuários e o mercado.

Navegador ChatGPT Atlas testa nova funcionalidade de vídeos

O navegador ChatGPT Atlas, baseado em Chromium, está testando uma nova funcionalidade chamada “Ações”, que permite ao ChatGPT entender vídeos, especialmente do YouTube. Com essa atualização, os usuários podem ver um botão de “Timestamps” que facilita a extração de informações temporais diretamente para a barra lateral do navegador. Essa integração permite que os usuários façam perguntas e recebam assistência sem precisar alternar entre abas, tornando a experiência de navegação mais fluida e interativa. Além disso, o Atlas pode lembrar o contexto das páginas visitadas, caso a opção de “memórias do navegador” esteja ativada, o que é útil para tarefas como comparação de anúncios de emprego. A nova atualização também trouxe melhorias na estabilidade e na usabilidade, corrigindo um bug que causava uso excessivo de memória e aprimorando as sugestões de perguntas quando a barra lateral do ChatGPT está fechada. A OpenAI planeja lançar o Atlas para Windows 11 em breve, ampliando ainda mais seu alcance. Essas inovações podem impactar a forma como os usuários interagem com informações online, mas não apresentam riscos diretos de segurança.

OpenAI oferece ChatGPT Plus gratuitamente por tempo limitado

A OpenAI anunciou uma oferta temporária que permite que alguns usuários ativem o ChatGPT Plus gratuitamente por um mês. Este plano, que normalmente custa $20 por mês nos Estados Unidos, é uma das três opções de assinatura disponíveis, que incluem também o ChatGPT Go a $8 e o ChatGPT Pro a $200. O ChatGPT Plus é ideal para tarefas que exigem raciocínio mais profundo, como redação, edição de documentos, aprendizado e pesquisa, além de análise de dados. Em comparação com o ChatGPT Go, o Plus oferece limites mais altos para mensagens, uploads de arquivos e memória, permitindo que o modelo lembre mais detalhes de conversas anteriores. A oferta é válida apenas para alguns usuários e pode ser cancelada a qualquer momento antes da renovação automática após um mês. Além disso, as versões gratuitas e Go começarão a exibir anúncios nas próximas semanas, o que pode impactar a experiência do usuário. O artigo também menciona um relatório sobre o orçamento de CISO para 2026, que pode ser relevante para líderes de segurança que buscam entender como priorizar investimentos em cibersegurança.

ChatGPT Go Novo plano acessível com recursos expandidos

O ChatGPT Go, uma nova oferta da OpenAI, agora está disponível para usuários nos Estados Unidos e custa apenas $8, um valor significativamente menor que o plano ChatGPT Plus, que é de $20. Inicialmente restrito a países em desenvolvimento, o ChatGPT Go permite que os usuários façam upload de arquivos, criem imagens e acessem o modelo GPT 5.2 Instant com limites de uso ampliados. Além disso, oferece janelas de memória e contexto mais longas, permitindo que o modelo lembre-se de interações anteriores. No entanto, o ChatGPT Go não possui capacidades de raciocínio e é limitado ao modelo GPT 5.2 Instant, ao contrário do ChatGPT Plus, que permite acesso a modelos mais avançados e é voltado para tarefas que exigem raciocínio profundo. Existe também um plano ChatGPT Pro, que custa $200 por mês e oferece acesso total ao modelo mais poderoso, GPT-5.2 Pro, além de recursos adicionais. Para evitar anúncios, os usuários precisam assinar um dos planos pagos. A OpenAI também está implementando práticas de segurança para o novo protocolo Model Context Protocol (MCP), que conecta modelos de linguagem a ferramentas e dados, destacando a importância da segurança em serviços emergentes.

OpenAI testa nova funcionalidade chamada Sonata

A OpenAI está testando uma nova funcionalidade ou produto com o codinome ‘Sonata’, que pode estar relacionado a experiências musicais ou de áudio no ChatGPT. Recentemente, foram identificados novos subdomínios associados à OpenAI, como sonata.openai.com e sonata.api.openai.com, indicando que a empresa está desenvolvendo um novo serviço. O codinome ‘Sonata’ refere-se a uma composição musical instrumental de múltiplos movimentos, mas seu significado exato ainda é incerto. Além disso, a OpenAI anunciou melhorias nas capacidades de busca de detalhes em chats passados no ChatGPT, permitindo que os usuários acessem o contexto original de conversas anteriores. A empresa também está aprimorando as funcionalidades de ditado para todos os usuários logados. Embora o artigo não mencione incidentes de segurança ativos, ele destaca inovações que podem impactar a experiência do usuário e a forma como as informações são geridas na plataforma.

Nova funcionalidade do ChatGPT promete melhorias na gestão de tarefas

A OpenAI está testando uma atualização significativa para o ChatGPT, que será lançada nas próximas semanas. A nova funcionalidade, codinome ‘Salute’, permitirá aos usuários criar tarefas com uploads de arquivos e acompanhar seu progresso. Além disso, há indícios de que o ChatGPT poderá escolher um modelo otimizado para resultados de negócios locais, como restaurantes e hotéis, em widgets de mapas. Outra mudança importante é o suporte a um novo túnel seguro para servidores MCP, que conecta o servidor interno do cliente à OpenAI sem a necessidade de alterações no firewall. Por fim, a atualização inclui blocos de código e matemática editáveis em linha, semelhantes aos blocos de formatação recentemente introduzidos. Essas melhorias visam aumentar a funcionalidade e a usabilidade do ChatGPT, tornando-o uma ferramenta ainda mais poderosa para usuários e empresas.

OpenAI começará a exibir anúncios no ChatGPT para usuários nos EUA

A OpenAI anunciou que começará a exibir anúncios no ChatGPT para usuários adultos logados nos Estados Unidos, tanto na versão gratuita quanto na versão ChatGPT Go, nas próximas semanas. A empresa garantiu que os dados e conversas dos usuários estão protegidos e não serão vendidos a anunciantes. A introdução de anúncios visa tornar os benefícios da inteligência artificial mais acessíveis e ajudar pequenas empresas a competir. Os anúncios aparecerão no final das conversas e serão claramente rotulados, sem influenciar as respostas do chatbot. Usuários em planos mais caros, como Plus e Pro, não verão anúncios. A OpenAI não especificou quais dados serão coletados para personalizar os anúncios, mas os usuários poderão entender o motivo pelo qual estão vendo determinados anúncios e poderão desativar a personalização. A decisão de incluir anúncios representa uma mudança significativa na estratégia da OpenAI, que até agora dependia principalmente de assinaturas. O CEO Sam Altman comentou que a empresa não aceitará dinheiro para influenciar as respostas do ChatGPT, enfatizando que a publicidade é uma alternativa para sustentar o alto custo do desenvolvimento da inteligência artificial.

OpenAI confirma anúncios no ChatGPT para usuários gratuitos

A OpenAI anunciou que o ChatGPT começará a exibir anúncios nas próximas semanas, mas assegurou que esses anúncios não influenciarão as respostas geradas pela inteligência artificial. Os anúncios aparecerão dentro das respostas, provavelmente na parte inferior, e serão visíveis apenas para usuários de contas gratuitas ou da versão ChatGPT Go. A empresa, apoiada pela Microsoft, argumenta que a inclusão de anúncios ajudará a financiar suas ambições em Inteligência Geral Artificial (AGI), que visa beneficiar toda a humanidade. Os anúncios serão claramente rotulados e não aparecerão em conversas que abordem tópicos sensíveis, como saúde ou política. Além disso, a OpenAI garantiu que as conversas dos usuários permanecerão privadas e que os dados não serão vendidos a anunciantes. Para aqueles que preferirem não ver anúncios, a empresa sugere considerar a atualização para a assinatura de $20 ou a mudança para alternativas como Claude. Essa mudança pode impactar a experiência do usuário e levanta questões sobre privacidade e monetização de dados.

Assinatura ChatGPT Go de US 8 oferece mais mensagens e recursos

A OpenAI lançou a assinatura ChatGPT Go, disponível nos Estados Unidos e em outras regiões, ao custo de US$ 8. Essa nova opção permite aos usuários enviar 10 vezes mais mensagens, fazer uploads de arquivos e criar imagens em comparação com a versão gratuita. No entanto, a assinatura não oferece acesso aos modelos avançados de raciocínio, limitando-se ao modelo GPT-5.2 Instant. A OpenAI destaca que o ChatGPT Go é voltado para aqueles que buscam um acesso ampliado a recursos a um preço mais acessível. Além disso, a assinatura proporciona uma memória e janela de contexto mais longas, permitindo que o ChatGPT retenha mais informações sobre os usuários e suas conversas. Por outro lado, a assinatura ChatGPT Plus, que custa US$ 20, continua sendo a melhor opção, pois oferece acesso a modelos avançados e não exibe anúncios. O ChatGPT Go, assim como a versão gratuita, mostrará anúncios nas respostas, embora a OpenAI afirme que isso não afetará as respostas do GPT. Para uma experiência sem limites e com o mais alto nível de raciocínio, a assinatura GPT Pro, que custa US$ 200, é recomendada. A introdução de anúncios nas contas gratuitas e Go pode impactar a experiência do usuário, mas a OpenAI garante que não influenciará as respostas geradas pelo modelo.

OpenAI lança atualização do ChatGPT com busca avançada de histórico

A OpenAI está implementando uma atualização significativa para o ChatGPT, que agora inclui suporte para uma busca avançada no histórico de chats. Essa nova funcionalidade, que está sendo disponibilizada apenas para assinantes Plus e Pro, promete melhorar a capacidade de encontrar detalhes específicos em conversas anteriores. Anteriormente, a busca no histórico do ChatGPT apresentava limitações, especialmente em casos de threads semelhantes, dificultando a localização de informações desejadas. Com a nova atualização, quando o histórico de chats de referência está ativado, o ChatGPT pode identificar de forma mais confiável detalhes de conversas passadas, apresentando-as como fontes para que os usuários possam revisar o contexto original. Além disso, a OpenAI está aprimorando as capacidades de ditado, reduzindo transcrições vazias e aumentando a precisão. Essa atualização segue uma grande mudança anterior em dezembro, que introduziu novas personalidades para o ChatGPT, permitindo que os usuários ajustem características como calor, entusiasmo e uso de emojis. Essas melhorias visam tornar a interação com a IA mais personalizada e eficiente.

Extensões populares do Chrome roubam conversas do ChatGPT

Pesquisadores da Ox Security identificaram atividades maliciosas em duas extensões da Chrome Web Store, que estão coletando dados de usuários de chatbots de IA, como ChatGPT e DeepSeek. As extensões, chamadas ‘Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI’ e ‘AI Sidebar with Deepseek, ChatGPT, Claude, and more’, possuem, respectivamente, 600 mil e 300 mil usuários. Elas enviam informações a servidores controlados por hackers a cada 30 segundos, utilizando um truque que solicita consentimento para compartilhar ‘dados analíticos anônimos’. Na verdade, elas coletam todo o conteúdo das conversas dos usuários. Essa prática, conhecida como ‘Prompt Poaching’, já foi observada em outras extensões, como a Urban VPN Proxy. As extensões maliciosas imitam uma ferramenta legítima, mas podem expor dados sensíveis, incluindo informações corporativas. Apesar de perderem o selo ‘Em Destaque’, continuam disponíveis na loja. A recomendação é que os usuários evitem instalar extensões de fontes desconhecidas, mesmo que pareçam confiáveis.

Extensão de VPN rouba dados de conversas do ChatGPT e Gemini

Especialistas da KOI identificaram que a extensão de VPN Urban VPN, com mais de 6 milhões de usuários, está coletando secretamente conversas de usuários de ferramentas de inteligência artificial, como ChatGPT e Gemini. Apesar de sua promessa de segurança, a extensão utiliza um código malicioso que intercepta o tráfego entre o usuário e as plataformas de IA, permitindo a captura de dados pessoais, incluindo perguntas e respostas, mesmo quando a VPN não está conectada. Os dados coletados são enviados para um servidor da Urban VPN e posteriormente comercializados para análises de marketing, afetando mais de 8 milhões de usuários dos navegadores Chrome e Edge. A KOI recomenda a desinstalação imediata da extensão, pois ela pode ser uma porta de entrada para outras ameaças digitais. Este incidente destaca a importância da vigilância em relação a ferramentas que prometem privacidade, mas que podem comprometer a segurança dos usuários.

Falso ChatGPT Atlas é usado para roubar senhas de usuários em navegadores

Pesquisadores da Fable Security identificaram uma nova ameaça que utiliza uma versão falsa do ChatGPT Atlas para roubar senhas de usuários em navegadores. Denominada ‘ataque ClickFix’, essa campanha de cibercrime cresceu 517% recentemente, explorando um truque de ‘copia e cola’ para disseminar instaladores maliciosos. Os hackers criam sites falsos que imitam o layout e o design do verdadeiro ChatGPT Atlas, enganando usuários desatentos. Ao acessar o instalador falso, a vítima é instruída a copiar um comando e colá-lo em um terminal, como o PowerShell, o que ativa um script que solicita repetidamente a senha do usuário. Esse método permite que os criminosos escalem privilégios e obtenham acesso total ao dispositivo, coletando credenciais sensíveis. A situação é alarmante, pois os hackers conseguem contornar ferramentas de segurança robustas. Especialistas recomendam que os usuários sejam cautelosos ao instalar ferramentas e evitem executar comandos de fontes suspeitas.

Nova falha no ChatGPT permite roubo de dados e histórico de conversas

Um relatório da Tenable Research revelou sete falhas de segurança na plataforma ChatGPT da OpenAI, que podem ser exploradas por cibercriminosos para roubar dados dos usuários e até controlar o chatbot. A principal vulnerabilidade identificada é a ‘injeção de prompt’, onde hackers enviam instruções maliciosas ao ChatGPT sem que o usuário perceba. Os especialistas demonstraram duas formas de ataque: a primeira envolve a inserção de um comentário malicioso em um blog, que pode ser ativado quando o usuário pede um resumo ao ChatGPT. A segunda é um ataque de clique zero, onde o hacker cria um site que, ao ser indexado pelo ChatGPT, pode comprometer o usuário sem qualquer interação. Além disso, a falha de ‘injeção de memória’ permite que comandos maliciosos sejam salvos no histórico do usuário, possibilitando o roubo de dados sensíveis em interações futuras. A OpenAI foi notificada sobre essas vulnerabilidades, que afetam os modelos ChatGPT 4o e GPT-5, mas ainda não há informações sobre correções.

Conversas no ChatGPT vazam para ferramenta de SEO do Google

Recentemente, foi descoberto que conversas realizadas no ChatGPT estavam vazando para o Google Search Console (GSC), uma ferramenta utilizada por desenvolvedores para monitorar o tráfego de pesquisas. O consultor Jason Packer, da Quantable, identificou que pesquisas feitas no ChatGPT, incluindo interações pessoais e profissionais, estavam sendo exibidas no GSC, o que levanta preocupações sobre a privacidade dos usuários. A OpenAI, responsável pelo ChatGPT, reconheceu a existência de um problema que afetou temporariamente o caminho de algumas buscas, mas não forneceu detalhes sobre a natureza do vazamento. Aproximadamente 200 pesquisas estranhas foram registradas, revelando que os prompts dos usuários não são tão privados quanto se poderia supor. Os especialistas sugerem que a OpenAI deve aumentar a transparência em relação a incidentes como este e reforçar a proteção da privacidade dos usuários, especialmente em um contexto onde a conformidade com a LGPD é crucial. O vazamento é considerado um incidente de segurança que pode impactar a confiança dos usuários e a reputação da OpenAI.

Pesquisadores apontam falhas de segurança preocupantes no ChatGPT

Pesquisadores da Tenable identificaram sete falhas de injeção de comandos no ChatGPT-4o, denominadas ‘HackedGPT’. Essas vulnerabilidades permitem que atacantes insiram comandos ocultos, roubem dados sensíveis e disseminem desinformação. As falhas incluem injeção indireta de comandos através de sites confiáveis, injeção de comandos com um clique, e bypass de mecanismos de segurança utilizando links maliciosos disfarçados. Embora a OpenAI tenha corrigido algumas dessas falhas em seu modelo GPT-5, várias ainda permanecem ativas, colocando milhões de usuários em risco. Os especialistas alertam que essas vulnerabilidades não apenas expõem o ChatGPT a ataques, mas também podem transformar a ferramenta em um vetor de ataque, coletando informações de conversas cotidianas. A Tenable recomenda que os fornecedores de IA reforcem suas defesas contra injeções de comandos, garantindo que os mecanismos de segurança funcionem conforme o esperado. A situação é preocupante, especialmente considerando que ferramentas como o Google Gemini também podem ser suscetíveis a problemas semelhantes, devido à integração com serviços de e-mail.

Vulnerabilidades no ChatGPT podem expor dados pessoais de usuários

Pesquisadores de cibersegurança revelaram um conjunto de sete vulnerabilidades que afetam os modelos GPT-4o e GPT-5 da OpenAI, incluindo técnicas de injeção de prompt que podem ser exploradas por atacantes para roubar informações pessoais dos usuários. As falhas permitem que um invasor manipule o comportamento esperado do modelo de linguagem, levando-o a executar ações maliciosas sem o conhecimento do usuário. Entre as vulnerabilidades estão a injeção de prompt indireta via sites confiáveis, a injeção de prompt sem clique e a injeção de memória, que podem comprometer a privacidade dos dados armazenados nas interações do ChatGPT. A OpenAI já tomou medidas para corrigir algumas dessas falhas, mas a pesquisa destaca a necessidade de mecanismos de segurança mais robustos. Além disso, o estudo alerta para a crescente complexidade das ameaças, como ataques de injeção de prompt que podem ser realizados com um número reduzido de documentos maliciosos, tornando esses ataques mais acessíveis para potenciais invasores. A situação exige atenção redobrada de empresas e profissionais de segurança da informação, especialmente em um cenário onde a proteção de dados pessoais é cada vez mais crítica.

Aplicativos maliciosos do ChatGPT rastreiam usuários e roubam dados

O crescimento explosivo de aplicativos móveis impulsionados por IA criou um ambiente propício para cibercriminosos que exploram a confiança nas marcas. Pesquisadores da Appknox identificaram um aumento preocupante de clones falsos do ChatGPT, DALL·E e WhatsApp em lojas de aplicativos alternativas, que utilizam marcas conhecidas para enganar usuários e comprometer dispositivos empresariais. Em 2024, aplicativos relacionados à IA representaram 13% de todos os downloads globais, totalizando 17 bilhões, tornando-se alvos atraentes para ataques. As ameaças variam de adware oportunista a infraestruturas de spyware. Um exemplo alarmante é o WhatsApp Plus, que se disfarça como uma versão aprimorada do mensageiro, mas contém malware que solicita permissões extensivas, permitindo que atacantes interceptem códigos de autenticação e acessem contatos. A análise de tráfego de rede revelou técnicas de mascaramento de tráfego malicioso. Para ambientes corporativos, as implicações são catastróficas, com riscos de violação de normas como GDPR e HIPAA, podendo resultar em multas milionárias. Os pesquisadores ressaltam que os mecanismos tradicionais de verificação de aplicativos falham em prevenir ameaças pós-lançamento, destacando a necessidade de monitoramento contínuo e educação dos usuários sobre downloads seguros.

Nova técnica de camuflagem explora ChatGPT para servir conteúdo falso

Pesquisadores de segurança revelaram uma nova técnica de ataque chamada “camuflagem consciente do agente”, que explora como ferramentas de busca baseadas em IA, como o ChatGPT e o navegador Atlas da OpenAI, recuperam conteúdo da web. Essa vulnerabilidade permite que atacantes sirvam versões diferentes de páginas da web para crawlers de IA, enquanto usuários humanos veem conteúdo legítimo. A técnica, que se destaca pela sua simplicidade, utiliza regras condicionais que detectam cabeçalhos de agentes de usuário de IA. Em experimentos controlados, foi demonstrado que, ao acessar um site, crawlers de IA recebiam informações fabricadas, enquanto visitantes humanos viam a versão verdadeira. Isso levanta preocupações sobre a falta de validação de proveniência nos sistemas de recuperação de informações de IA, que tratam o conteúdo como verdade absoluta. As implicações vão além de ataques à reputação, afetando também processos de contratação automatizados. Para mitigar esses riscos, recomenda-se a implementação de defesas em múltiplas camadas, incluindo a verificação criptográfica da autenticidade das informações e protocolos de validação para crawlers. A pesquisa destaca a necessidade urgente de monitoramento contínuo e validação de saídas geradas por IA, especialmente em decisões críticas como contratações e conformidade.

Hackers exploram vulnerabilidade do navegador Atlas para injetar código malicioso no ChatGPT

Pesquisadores de cibersegurança da LayerX identificaram uma vulnerabilidade crítica no navegador Atlas da OpenAI, que permite a injeção de instruções maliciosas no sistema de memória do ChatGPT por meio de ataques de Cross-Site Request Forgery (CSRF). Essa falha, divulgada de forma responsável à OpenAI em 27 de outubro de 2025, representa um risco significativo para usuários que dependem da IA para codificação e gerenciamento de sistemas. O ataque se aproveita de uma fraqueza na forma como o Atlas lida com sessões autenticadas, permitindo que atacantes utilizem credenciais de autenticação de vítimas para injetar instruções ocultas na memória do ChatGPT. Uma vez comprometida, essa memória contaminada pode executar código remoto e potencialmente conceder controle sobre contas de usuários e sistemas conectados. Além disso, o navegador Atlas demonstrou deficiências alarmantes em detectar e bloquear ataques de phishing, aumentando ainda mais a vulnerabilidade dos usuários. A pesquisa revelou que apenas 6 de 103 páginas maliciosas foram bloqueadas, resultando em uma taxa de falha de 94,2%. Essa situação é particularmente preocupante, pois a memória contaminada persiste em todos os dispositivos onde o usuário acessa sua conta, dificultando a detecção e remediação do ataque.

Vulnerabilidade no ChatGPT Atlas permite injeção de código malicioso

Pesquisadores de cibersegurança identificaram uma nova vulnerabilidade no navegador ChatGPT Atlas da OpenAI, que pode permitir que agentes maliciosos injetem instruções prejudiciais na memória do assistente de inteligência artificial. Essa falha, baseada em um erro de falsificação de solicitação entre sites (CSRF), possibilita que as instruções maliciosas persistam entre dispositivos e sessões, comprometendo a segurança do usuário. A memória, introduzida pela OpenAI em fevereiro de 2024, visa personalizar as interações, mas, se corrompida, pode ser utilizada para executar códigos arbitrários sem o conhecimento do usuário. A vulnerabilidade é agravada pela falta de controles robustos contra phishing no ChatGPT Atlas, tornando os usuários até 90% mais expostos em comparação com navegadores tradicionais como Google Chrome e Microsoft Edge. O ataque pode ser desencadeado por meio de engenharia social, onde o usuário é induzido a clicar em um link malicioso. Uma vez que a memória do ChatGPT é comprometida, comandos normais podem ativar a execução de códigos maliciosos, resultando em escalonamento de privilégios ou exfiltração de dados. Essa situação representa um risco significativo, pois transforma uma funcionalidade útil em uma ferramenta de ataque.

Hackers envenenam IA como ChatGPT com facilidade

O aumento do uso de Inteligência Artificial (IA), especialmente em chatbots como ChatGPT, Gemini e Claude, trouxe à tona novas vulnerabilidades. Pesquisadores do Instituto Alan Turing e da Anthropic identificaram uma técnica chamada ’envenenamento de IA’, onde apenas 250 arquivos maliciosos podem comprometer o aprendizado de um modelo de dados. Isso resulta em chatbots que aprendem informações erradas, levando a respostas incorretas ou até maliciosas. Existem dois tipos principais de envenenamento: o direto, que altera respostas específicas, e o indireto, que prejudica a performance geral. Um exemplo de ataque direto é o backdoor, onde o modelo é manipulado para responder de forma errada ao detectar um código específico. Já o ataque indireto envolve a criação de informações falsas que o modelo replica como verdade. Em março de 2023, a OpenAI suspendeu temporariamente o ChatGPT devido a um bug que expôs dados de usuários. Além disso, artistas têm utilizado dados envenenados como uma forma de proteger suas obras contra sistemas de IA que as utilizam sem autorização. Essa situação levanta preocupações sobre a segurança e a integridade dos sistemas de IA, especialmente em um cenário onde a desinformação pode ter consequências graves.

OpenAI enfrenta mandado do DHS por dados de usuários do ChatGPT

O Departamento de Segurança Interna dos EUA (DHS) emitiu um mandado inédito exigindo que a OpenAI forneça informações detalhadas sobre as conversas de usuários do ChatGPT, em um caso criminal relacionado a material de exploração infantil. O mandado, que foi deslacrado em Maine, representa um marco na interseção entre inteligência artificial e justiça criminal. A investigação, que começou em 2019, revelou que o suspeito mencionou o uso do ChatGPT durante comunicações com agentes infiltrados. Embora os dados da OpenAI não tenham sido necessários para identificar o suspeito, a solicitação levanta questões sobre privacidade e a responsabilidade das empresas de IA em relação a dados de usuários. A OpenAI já processou milhares de conteúdos relacionados a exploração infantil e atendeu a várias solicitações governamentais. Este caso destaca a crescente tendência de as autoridades considerarem plataformas de IA como fontes de evidência, exigindo uma reavaliação das práticas de coleta de dados e proteção de privacidade por parte das empresas de tecnologia.

Grupos APT abusam do ChatGPT para criar malware avançado e kits de phishing

Pesquisadores de segurança da Volexity descobriram que grupos de ameaças alinhados à China, identificados como UTA0388, estão utilizando plataformas de inteligência artificial como o ChatGPT para aprimorar suas capacidades de ciberataque. Desde junho de 2025, esses atores têm conduzido campanhas de spear phishing, desenvolvendo malware sofisticado e criando e-mails de phishing multilíngues que visam organizações na América do Norte, Ásia e Europa. As campanhas do UTA0388 demonstram um nível de sofisticação sem precedentes ao usar Modelos de Linguagem Grande (LLMs) para automatizar atividades maliciosas. Através da criação de personas fictícias e organizações de pesquisa inventadas, os atacantes conseguem enganar suas vítimas para que baixem cargas maliciosas. Mais de 50 e-mails de phishing únicos foram observados, cada um com uma fluência impressionante, mas frequentemente sem coerência semântica, indicando uma geração impulsionada por IA. A análise técnica revelou cinco variantes distintas de um malware chamado GOVERSHELL, cada uma sendo uma reescrita completa, sugerindo o uso de geração de código assistida por IA. A integração da IA nas operações cibercriminosas sinaliza uma nova era de atividades de ameaças automatizadas e em larga escala, exigindo que as organizações adotem novas estratégias de defesa, como a detecção baseada em comportamento e o compartilhamento de inteligência sobre ameaças.

77 dos Funcionários Compartilham Segredos da Empresa no ChatGPT

Um novo relatório revela que 77% dos funcionários compartilham informações confidenciais da empresa em plataformas de inteligência artificial generativa, como o ChatGPT, resultando em violações de políticas de segurança. O estudo mostra que quase metade dos colaboradores interage regularmente com essas ferramentas, e 40% dos arquivos enviados contêm dados regulados, como informações pessoais identificáveis (PII) e dados de cartões de pagamento (PCI). Apesar das políticas de segurança que enfatizam o controle de arquivos, muitos funcionários estão copiando e colando informações sensíveis diretamente em campos de entrada de IA, o que dificulta a detecção por sistemas de auditoria de segurança. Além disso, 87% das atividades de chat observadas ocorrem em contas não gerenciadas, aumentando o risco de vazamentos de dados. O relatório sugere que as empresas precisam repensar suas estratégias de segurança, mudando o foco de controles tradicionais de prevenção de perda de dados (DLP) para monitoramento dinâmico de fluxos de dados baseados em navegador e atividades em sessões de SaaS não gerenciadas. Medidas como políticas de acesso adaptativas e análise comportamental em tempo real são essenciais para mitigar esses riscos emergentes.

Falha no ChatGPT permitia roubar dados do Gmail sem cliques

Uma vulnerabilidade na ferramenta Deep Research do ChatGPT, descoberta pela Radware, permitia que dados do Gmail de usuários fossem coletados sem que eles precisassem clicar em qualquer link. O recurso, lançado em fevereiro, foi projetado para realizar pesquisas mais robustas e rápidas, mas, ao se conectar às contas do Gmail, expôs informações pessoais como nome e endereço. A Radware testou a falha enviando e-mails a si mesmos com instruções ocultas, que permitiram que a IA coletasse dados e os enviasse a um endereço controlado pelos pesquisadores. A OpenAI, responsável pelo ChatGPT, corrigiu a falha em 3 de setembro e afirmou que não há evidências de que a vulnerabilidade tenha sido explorada por hackers. No entanto, a possibilidade de uso de dados para ataques de phishing no futuro permanece. A empresa ressaltou que a segurança é uma prioridade e que a análise da Radware contribuiu para a melhoria das ferramentas. Este incidente destaca a necessidade de vigilância contínua em relação à segurança de ferramentas de IA, especialmente aquelas que interagem com dados sensíveis dos usuários.

Vulnerabilidade no ChatGPT permite vazamento de dados do Gmail

Pesquisadores de cibersegurança revelaram uma falha de zero-click no agente Deep Research do ChatGPT da OpenAI, que pode permitir que um atacante vaze dados sensíveis da caixa de entrada do Gmail com um único e-mail malicioso, sem qualquer ação do usuário. Nomeado de ShadowLeak, o ataque utiliza injeções de prompt indiretas escondidas em HTML de e-mails, como texto branco sobre fundo branco, para que o usuário não perceba as instruções. Quando o usuário solicita ao ChatGPT que analise seus e-mails, o agente pode ser induzido a extrair informações pessoais e enviá-las para um servidor externo. Essa vulnerabilidade é particularmente preocupante, pois ocorre diretamente na infraestrutura em nuvem da OpenAI, contornando defesas locais e corporativas. O ataque pode ser ampliado para outros conectores suportados pelo ChatGPT, como Dropbox e Google Drive. Além disso, a pesquisa também destaca como o ChatGPT pode ser manipulado para resolver CAPTCHAs, evidenciando a necessidade de integridade de contexto e monitoramento contínuo. A OpenAI já abordou a questão em agosto de 2025, após a divulgação responsável do problema em junho do mesmo ano.

Vulnerabilidade 0-Click do ChatGPT Permite Exfiltração de Dados do Gmail

Pesquisadores descobriram uma vulnerabilidade crítica de zero-click no agente Deep Research do ChatGPT, que permite a atacantes exfiltrar dados sensíveis do Gmail sem qualquer interação do usuário. Essa falha, que opera inteiramente nos servidores da OpenAI, contorna as defesas de segurança tradicionais ao utilizar técnicas de exfiltração do lado do serviço. O mecanismo de roubo de dados ocorre quando um e-mail aparentemente inocente, contendo instruções HTML ocultas, é enviado para a caixa de entrada da vítima. Quando o agente processa os e-mails, ele executa esses comandos invisíveis, coletando dados pessoais e transmitindo-os para servidores controlados pelos atacantes. Essa vulnerabilidade representa uma evolução perigosa de ataques, passando de métodos do lado do cliente para ataques do lado do serviço, criando uma lacuna de segurança para organizações que utilizam agentes de IA. As empresas que integram o Deep Research com serviços de e-mail devem reavaliar as permissões do agente e implementar monitoramento adicional das solicitações de saída. Até que um patch seja lançado, restringir o acesso do agente a caixas de entrada sensíveis pode ajudar a mitigar os riscos.

Hackers norte-coreanos geram ID militar falsa da Coreia do Sul usando ChatGPT

Hackers da Coreia do Norte, identificados como Kimsuky, utilizaram o ChatGPT para criar uma identificação militar falsa, que foi empregada em ataques de spear-phishing contra instituições de defesa da Coreia do Sul. O Genians Security Center (GSC) reportou que, apesar das restrições implementadas pela OpenAI para evitar a geração de conteúdo malicioso, os criminosos conseguiram contornar essas barreiras ao solicitar um ‘design de amostra’ ou ‘mock-up’. O uso de imagens disponíveis publicamente facilitou a manipulação do modelo de IA. A criação de documentos de identificação falsos é ilegal e representa um risco significativo, especialmente em contextos de segurança nacional. O ataque destaca a vulnerabilidade das instituições de defesa a métodos inovadores de engenharia social, que podem comprometer informações sensíveis e a segurança nacional. O GSC não revelou o nome da instituição alvo, mas enfatizou a necessidade de cautela ao lidar com ferramentas de IA, que podem ser exploradas para fins ilícitos.

Cibercriminosos Usam ChatGPT para Driblar Antivírus

Um novo ataque de ameaça persistente avançada (APT) atribuído ao grupo Kimsuky, vinculado à Coreia do Norte, destaca o uso de ferramentas de IA generativa, como o ChatGPT, para aprimorar campanhas de spear-phishing. Em julho de 2025, a campanha explorou imagens deepfake de crachás de funcionários militares sul-coreanos para infiltrar entidades relacionadas à defesa. Os atacantes enviaram e-mails de phishing que imitavam domínios de instituições de defesa da Coreia do Sul, contendo arquivos maliciosos disfarçados. A análise revelou que o ChatGPT foi manipulado para gerar documentos falsificados, contornando restrições de replicação de ID. Os arquivos maliciosos, uma vez executados, utilizavam scripts ofuscados para se conectar a servidores de comando e controle, permitindo o roubo de dados e o controle remoto de dispositivos infectados. A campanha ilustra uma tendência crescente de atores patrocinados por estados que utilizam IA para engenharia social e entrega de malware, destacando a ineficácia das soluções antivírus tradicionais contra comandos ofuscados e conteúdo gerado por IA. A detecção e resposta em endpoints (EDR) foi identificada como essencial para neutralizar essas ameaças, evidenciando a necessidade de monitoramento proativo para evitar que organizações sejam vítimas de estratégias APT habilitadas por IA.

Vazamentos de chats do ChatGPT revelam usuários como terapeutas e advogados

Recentemente, surgiram preocupações sobre a privacidade das conversas no ChatGPT, após a OpenAI cancelar a funcionalidade que tornava as interações buscáveis, resultando na exposição de dados sensíveis. Uma análise de 1.000 conversas, realizada pela SafetyDetective, revelou que muitos usuários compartilham informações pessoais e discutem questões delicadas, como saúde mental e problemas legais, com a IA, tratando-a como um terapeuta ou consultor. A pesquisa indicou que 60% das interações se enquadravam na categoria de ‘consulta profissional’, levantando questões sobre a confiança dos usuários na precisão das respostas da IA. Além disso, a falta de compreensão sobre o que significa tornar as conversas buscáveis e a possibilidade de vazamentos de dados pessoais expõem os usuários a riscos como phishing e roubo de identidade. Especialistas recomendam que as empresas de IA tornem seus avisos mais claros e ocultem informações pessoais antes de disponibilizar as conversas na internet. A situação destaca a necessidade de cautela ao compartilhar informações sensíveis com chatbots, independentemente da percepção de privacidade da tecnologia.

Microsoft alerta sobre ChatGPT falso que espalha ransomware

Um relatório da Microsoft revelou que hackers estão utilizando uma versão modificada do aplicativo desktop do ChatGPT para disseminar um trojan de acesso remoto conhecido como Pipemagic. Este malware, desenvolvido pelo grupo de cibercriminosos Storm-2460, tem como alvo setores como imobiliário, financeiro e tecnológico em várias regiões, incluindo América do Sul, América do Norte, Europa e Oriente Médio. A gravidade da situação é acentuada pela combinação de um backdoor modular, que permite acesso direto aos sistemas comprometidos, e uma vulnerabilidade zero-day (CVE-2025-29824) no Windows, que ainda não possui correção. A Kaspersky também alertou sobre a campanha, destacando casos na Arábia Saudita e na Ásia. Os ataques podem resultar no vazamento de dados pessoais, credenciais e informações financeiras, além da instalação de ransomware que criptografa arquivos e exige pagamento para recuperação. A recomendação é que os usuários evitem baixar arquivos ou executar programas de fontes desconhecidas, especialmente aqueles que imitam softwares populares como o ChatGPT.

Malware PipeMagic se disfarça de ChatGPT para espalhar ransomware

A Microsoft Threat Intelligence revelou uma campanha de malware sofisticada, onde criminosos cibernéticos disfarçam um software malicioso como a popular aplicação de desktop ChatGPT para implantar ransomware em diversos setores ao redor do mundo. O malware, denominado PipeMagic, combina engenharia social com capacidades técnicas avançadas, visando organizações nos setores de TI, financeiro e imobiliário, especialmente nos Estados Unidos, Europa, América do Sul e Oriente Médio.

O PipeMagic explora uma vulnerabilidade crítica do Windows (CVE-2025-29824) para obter privilégios elevados. Os atacantes utilizam a ferramenta certutil para baixar arquivos MSBuild maliciosos de sites legítimos previamente comprometidos. Esses arquivos parecem ser a aplicação ChatGPT, mas contêm código malicioso que ativa o PipeMagic diretamente na memória, dificultando a detecção.