Openai

OpenAI anuncia aposentadoria do modelo GPT-4o e outros

A OpenAI confirmou a aposentadoria do modelo GPT-4o, considerado o mais popular entre os usuários, junto com outros modelos como GPT-5 Instant e GPT-5 Thinking. A decisão foi anunciada em um documento de suporte, onde a empresa explicou que a transição para o GPT-5.2, que atende às expectativas, motivou essa mudança. A aposentadoria está programada para 13 de fevereiro de 2026. O GPT-4o se destacou por sua abordagem mais pessoal e calorosa, o que levou a OpenAI a reintroduzi-lo após feedback negativo de usuários. Apesar de melhorias nas versões mais recentes, a preferência dos usuários pelo estilo conversacional do GPT-4o foi um fator importante na sua popularidade. Atualmente, apenas 0,1% dos usuários ainda optam pelo GPT-4o diariamente. A OpenAI também lançou a funcionalidade de Personalidade, que visa personalizar a experiência do usuário, alinhando-se ao estilo do GPT-4o. A empresa continua a trabalhar em melhorias de personalização e na integração de novas salvaguardas.

OpenAI inicia testes de anúncios no ChatGPT para usuários gratuitos e pagos

A OpenAI confirmou que está testando anúncios no ChatGPT, tanto para contas gratuitas quanto para as pagas de $8. A novidade já é visível em dispositivos Android, onde a empresa implementou uma experiência de onboarding em tela cheia para apresentar os anúncios aos usuários. Durante essa introdução, a OpenAI assegura que os anúncios não afetarão as respostas do ChatGPT e estarão claramente separados e rotulados. Embora a empresa não compartilhe informações pessoais com os anunciantes, o conteúdo da conversa atual pode influenciar os anúncios exibidos. Os usuários têm a opção de ocultar anúncios, entender o motivo de sua exibição e limpar dados relacionados a anúncios. Os anúncios são apresentados em um bloco rotulado como ‘Patrocinado’, e os usuários podem interagir com eles através de um menu de opções. A OpenAI também criou uma nova página de ‘Controles de Anúncios’ nas configurações, permitindo que os usuários gerenciem seu histórico e interesses. Importante ressaltar que os anúncios não aparecerão para usuários Plus, Pro, Business e Enterprise. A OpenAI reafirma seu compromisso com a privacidade, garantindo que as conversas dos usuários não serão compartilhadas com anunciantes e que nunca venderá dados de usuários.

OpenAI inicia exibição de anúncios no ChatGPT nos EUA

A OpenAI anunciou que começará a exibir anúncios no ChatGPT para usuários com assinatura gratuita ou a de $8, mas os custos para anunciantes podem ser elevados. Embora a empresa não tenha revelado o preço exato, um relatório indica que a taxa pode chegar a até $60 por mil visualizações, o que é comparável ao custo de anúncios em transmissões ao vivo da NFL. Os anúncios aparecerão abaixo das respostas geradas pela IA, e a OpenAI garantiu que não usará informações pessoais dos usuários, incluindo dados de saúde, para treinar seus modelos de anúncios. Além disso, a empresa afirmou que os anúncios não influenciarão as respostas do ChatGPT. Os anunciantes receberão dados sobre impressões e visualizações, mas a OpenAI não divulgará quantos cliques os anúncios geram, o que pode ser um indicativo de uma taxa de cliques (CTR) baixa. Para evitar anúncios, os usuários podem optar pela assinatura do ChatGPT Plus, que custa $20. A implementação dos anúncios está prevista para as próximas semanas.

Hackers usam convites da OpenAI para roubar dados de usuários

A Kaspersky revelou uma nova campanha de phishing que explora o recurso de convites a equipes da OpenAI para roubar dados bancários de usuários. Os hackers, identificados como norte-coreanos, criam contas empresariais falsas que registram links e números de telefone maliciosos, gerando uma falsa sensação de segurança. Utilizando essas contas, eles enviam e-mails fraudulentos a partir de endereços legítimos, pressionando as vítimas a fornecerem informações financeiras. Os e-mails maliciosos frequentemente alegam renovações de assinatura com valores superiores ou oferecem promoções irresistíveis, levando muitos usuários desavisados a cair na armadilha. Além disso, os criminosos também utilizam táticas de vishing, realizando ligações para pressionar as vítimas em tempo real. A Kaspersky recomenda que os usuários desconfiem de convites não solicitados de plataformas da OpenAI e verifiquem cuidadosamente os endereços de e-mail e números de telefone antes de agir.

OpenAI testa atualização para o recurso de chat temporário do ChatGPT

A OpenAI está implementando uma atualização significativa para o recurso de chat temporário do ChatGPT, que permitirá aos usuários manter a personalização durante as conversas temporárias, enquanto ainda bloqueia a influência desse chat na conta principal. O chat temporário é uma funcionalidade que inicia uma conversa sem histórico, não utilizando memórias ou conversas anteriores, mesmo com a memória ativada. Com a nova atualização, o chat temporário poderá acessar preferências de personalização, como estilo e tom, mas essa função pode ser desativada a qualquer momento. Além disso, a OpenAI poderá manter uma cópia do chat por até 30 dias por motivos de segurança. Recentemente, a empresa também introduziu um modelo de previsão de idade, que pode restringir contas de usuários adultos que são erroneamente identificados como adolescentes, limitando suas interações em tópicos sensíveis. Embora as contas restritas ainda possam aprender e criar, elas não poderão discutir certos assuntos. A OpenAI alerta que seu modelo de IA não é infalível e pode levar a erros de classificação. Essas mudanças visam melhorar a experiência do usuário, mas também levantam questões sobre privacidade e segurança de dados.

OpenAI implementa modelo de previsão de idade no ChatGPT

A OpenAI está lançando um novo modelo de previsão de idade no ChatGPT, com o objetivo de detectar a faixa etária dos usuários e aplicar restrições de segurança para prevenir o uso inadequado por adolescentes. A empresa busca evitar que conteúdos adultos ou potencialmente perigosos sejam acessados por usuários menores de 18 anos sem o consentimento dos pais. O modelo de detecção de idade analisa os tópicos abordados nas conversas e os horários de uso do ChatGPT para fazer suas previsões. No entanto, a OpenAI alerta que o sistema pode cometer erros, classificando erroneamente adultos como adolescentes. Para aqueles que forem identificados incorretamente, existe a opção de verificação de idade, que pode ser feita através do envio de uma selfie ao vivo e de um documento de identidade emitido pelo governo. Após a verificação, se confirmada a idade, as restrições adicionais serão removidas. Essa funcionalidade está sendo implementada globalmente e se aplicará automaticamente a todas as contas do ChatGPT. A OpenAI também garante que as informações enviadas para verificação serão excluídas em até sete dias após a confirmação da idade.

Navegador ChatGPT Atlas testa nova funcionalidade de vídeos

O navegador ChatGPT Atlas, baseado em Chromium, está testando uma nova funcionalidade chamada “Ações”, que permite ao ChatGPT entender vídeos, especialmente do YouTube. Com essa atualização, os usuários podem ver um botão de “Timestamps” que facilita a extração de informações temporais diretamente para a barra lateral do navegador. Essa integração permite que os usuários façam perguntas e recebam assistência sem precisar alternar entre abas, tornando a experiência de navegação mais fluida e interativa. Além disso, o Atlas pode lembrar o contexto das páginas visitadas, caso a opção de “memórias do navegador” esteja ativada, o que é útil para tarefas como comparação de anúncios de emprego. A nova atualização também trouxe melhorias na estabilidade e na usabilidade, corrigindo um bug que causava uso excessivo de memória e aprimorando as sugestões de perguntas quando a barra lateral do ChatGPT está fechada. A OpenAI planeja lançar o Atlas para Windows 11 em breve, ampliando ainda mais seu alcance. Essas inovações podem impactar a forma como os usuários interagem com informações online, mas não apresentam riscos diretos de segurança.

OpenAI oferece ChatGPT Plus gratuitamente por tempo limitado

A OpenAI anunciou uma oferta temporária que permite que alguns usuários ativem o ChatGPT Plus gratuitamente por um mês. Este plano, que normalmente custa $20 por mês nos Estados Unidos, é uma das três opções de assinatura disponíveis, que incluem também o ChatGPT Go a $8 e o ChatGPT Pro a $200. O ChatGPT Plus é ideal para tarefas que exigem raciocínio mais profundo, como redação, edição de documentos, aprendizado e pesquisa, além de análise de dados. Em comparação com o ChatGPT Go, o Plus oferece limites mais altos para mensagens, uploads de arquivos e memória, permitindo que o modelo lembre mais detalhes de conversas anteriores. A oferta é válida apenas para alguns usuários e pode ser cancelada a qualquer momento antes da renovação automática após um mês. Além disso, as versões gratuitas e Go começarão a exibir anúncios nas próximas semanas, o que pode impactar a experiência do usuário. O artigo também menciona um relatório sobre o orçamento de CISO para 2026, que pode ser relevante para líderes de segurança que buscam entender como priorizar investimentos em cibersegurança.

ChatGPT Go Novo plano acessível com recursos expandidos

O ChatGPT Go, uma nova oferta da OpenAI, agora está disponível para usuários nos Estados Unidos e custa apenas $8, um valor significativamente menor que o plano ChatGPT Plus, que é de $20. Inicialmente restrito a países em desenvolvimento, o ChatGPT Go permite que os usuários façam upload de arquivos, criem imagens e acessem o modelo GPT 5.2 Instant com limites de uso ampliados. Além disso, oferece janelas de memória e contexto mais longas, permitindo que o modelo lembre-se de interações anteriores. No entanto, o ChatGPT Go não possui capacidades de raciocínio e é limitado ao modelo GPT 5.2 Instant, ao contrário do ChatGPT Plus, que permite acesso a modelos mais avançados e é voltado para tarefas que exigem raciocínio profundo. Existe também um plano ChatGPT Pro, que custa $200 por mês e oferece acesso total ao modelo mais poderoso, GPT-5.2 Pro, além de recursos adicionais. Para evitar anúncios, os usuários precisam assinar um dos planos pagos. A OpenAI também está implementando práticas de segurança para o novo protocolo Model Context Protocol (MCP), que conecta modelos de linguagem a ferramentas e dados, destacando a importância da segurança em serviços emergentes.

OpenAI testa nova funcionalidade chamada Sonata

A OpenAI está testando uma nova funcionalidade ou produto com o codinome ‘Sonata’, que pode estar relacionado a experiências musicais ou de áudio no ChatGPT. Recentemente, foram identificados novos subdomínios associados à OpenAI, como sonata.openai.com e sonata.api.openai.com, indicando que a empresa está desenvolvendo um novo serviço. O codinome ‘Sonata’ refere-se a uma composição musical instrumental de múltiplos movimentos, mas seu significado exato ainda é incerto. Além disso, a OpenAI anunciou melhorias nas capacidades de busca de detalhes em chats passados no ChatGPT, permitindo que os usuários acessem o contexto original de conversas anteriores. A empresa também está aprimorando as funcionalidades de ditado para todos os usuários logados. Embora o artigo não mencione incidentes de segurança ativos, ele destaca inovações que podem impactar a experiência do usuário e a forma como as informações são geridas na plataforma.

Nova funcionalidade do ChatGPT promete melhorias na gestão de tarefas

A OpenAI está testando uma atualização significativa para o ChatGPT, que será lançada nas próximas semanas. A nova funcionalidade, codinome ‘Salute’, permitirá aos usuários criar tarefas com uploads de arquivos e acompanhar seu progresso. Além disso, há indícios de que o ChatGPT poderá escolher um modelo otimizado para resultados de negócios locais, como restaurantes e hotéis, em widgets de mapas. Outra mudança importante é o suporte a um novo túnel seguro para servidores MCP, que conecta o servidor interno do cliente à OpenAI sem a necessidade de alterações no firewall. Por fim, a atualização inclui blocos de código e matemática editáveis em linha, semelhantes aos blocos de formatação recentemente introduzidos. Essas melhorias visam aumentar a funcionalidade e a usabilidade do ChatGPT, tornando-o uma ferramenta ainda mais poderosa para usuários e empresas.

OpenAI começará a exibir anúncios no ChatGPT para usuários nos EUA

A OpenAI anunciou que começará a exibir anúncios no ChatGPT para usuários adultos logados nos Estados Unidos, tanto na versão gratuita quanto na versão ChatGPT Go, nas próximas semanas. A empresa garantiu que os dados e conversas dos usuários estão protegidos e não serão vendidos a anunciantes. A introdução de anúncios visa tornar os benefícios da inteligência artificial mais acessíveis e ajudar pequenas empresas a competir. Os anúncios aparecerão no final das conversas e serão claramente rotulados, sem influenciar as respostas do chatbot. Usuários em planos mais caros, como Plus e Pro, não verão anúncios. A OpenAI não especificou quais dados serão coletados para personalizar os anúncios, mas os usuários poderão entender o motivo pelo qual estão vendo determinados anúncios e poderão desativar a personalização. A decisão de incluir anúncios representa uma mudança significativa na estratégia da OpenAI, que até agora dependia principalmente de assinaturas. O CEO Sam Altman comentou que a empresa não aceitará dinheiro para influenciar as respostas do ChatGPT, enfatizando que a publicidade é uma alternativa para sustentar o alto custo do desenvolvimento da inteligência artificial.

OpenAI confirma anúncios no ChatGPT para usuários gratuitos

A OpenAI anunciou que o ChatGPT começará a exibir anúncios nas próximas semanas, mas assegurou que esses anúncios não influenciarão as respostas geradas pela inteligência artificial. Os anúncios aparecerão dentro das respostas, provavelmente na parte inferior, e serão visíveis apenas para usuários de contas gratuitas ou da versão ChatGPT Go. A empresa, apoiada pela Microsoft, argumenta que a inclusão de anúncios ajudará a financiar suas ambições em Inteligência Geral Artificial (AGI), que visa beneficiar toda a humanidade. Os anúncios serão claramente rotulados e não aparecerão em conversas que abordem tópicos sensíveis, como saúde ou política. Além disso, a OpenAI garantiu que as conversas dos usuários permanecerão privadas e que os dados não serão vendidos a anunciantes. Para aqueles que preferirem não ver anúncios, a empresa sugere considerar a atualização para a assinatura de $20 ou a mudança para alternativas como Claude. Essa mudança pode impactar a experiência do usuário e levanta questões sobre privacidade e monetização de dados.

Assinatura ChatGPT Go de US 8 oferece mais mensagens e recursos

A OpenAI lançou a assinatura ChatGPT Go, disponível nos Estados Unidos e em outras regiões, ao custo de US$ 8. Essa nova opção permite aos usuários enviar 10 vezes mais mensagens, fazer uploads de arquivos e criar imagens em comparação com a versão gratuita. No entanto, a assinatura não oferece acesso aos modelos avançados de raciocínio, limitando-se ao modelo GPT-5.2 Instant. A OpenAI destaca que o ChatGPT Go é voltado para aqueles que buscam um acesso ampliado a recursos a um preço mais acessível. Além disso, a assinatura proporciona uma memória e janela de contexto mais longas, permitindo que o ChatGPT retenha mais informações sobre os usuários e suas conversas. Por outro lado, a assinatura ChatGPT Plus, que custa US$ 20, continua sendo a melhor opção, pois oferece acesso a modelos avançados e não exibe anúncios. O ChatGPT Go, assim como a versão gratuita, mostrará anúncios nas respostas, embora a OpenAI afirme que isso não afetará as respostas do GPT. Para uma experiência sem limites e com o mais alto nível de raciocínio, a assinatura GPT Pro, que custa US$ 200, é recomendada. A introdução de anúncios nas contas gratuitas e Go pode impactar a experiência do usuário, mas a OpenAI garante que não influenciará as respostas geradas pelo modelo.

OpenAI lança atualização do ChatGPT com busca avançada de histórico

A OpenAI está implementando uma atualização significativa para o ChatGPT, que agora inclui suporte para uma busca avançada no histórico de chats. Essa nova funcionalidade, que está sendo disponibilizada apenas para assinantes Plus e Pro, promete melhorar a capacidade de encontrar detalhes específicos em conversas anteriores. Anteriormente, a busca no histórico do ChatGPT apresentava limitações, especialmente em casos de threads semelhantes, dificultando a localização de informações desejadas. Com a nova atualização, quando o histórico de chats de referência está ativado, o ChatGPT pode identificar de forma mais confiável detalhes de conversas passadas, apresentando-as como fontes para que os usuários possam revisar o contexto original. Além disso, a OpenAI está aprimorando as capacidades de ditado, reduzindo transcrições vazias e aumentando a precisão. Essa atualização segue uma grande mudança anterior em dezembro, que introduziu novas personalidades para o ChatGPT, permitindo que os usuários ajustem características como calor, entusiasmo e uso de emojis. Essas melhorias visam tornar a interação com a IA mais personalizada e eficiente.

OpenAI lança ChatGPT Health com foco em saúde e privacidade

A OpenAI anunciou o lançamento do ChatGPT Health, uma nova funcionalidade que permite aos usuários interagir com um chatbot sobre questões de saúde. Este espaço dedicado oferece a opção de conectar de forma segura registros médicos e aplicativos de bem-estar, como Apple Health e MyFitnessPal, para fornecer respostas personalizadas, conselhos nutricionais e sugestões de exercícios. A empresa enfatiza que o ChatGPT Health foi projetado para apoiar, e não substituir, cuidados médicos, e que as conversas são protegidas por criptografia e isolamento. Além disso, as interações na plataforma não são utilizadas para treinar modelos de IA da OpenAI. A nova funcionalidade está disponível para usuários fora da Área Econômica Europeia, Suíça e Reino Unido. A OpenAI também destacou que o modelo foi avaliado com base em padrões clínicos, visando garantir que ele atenda às necessidades reais dos usuários. No entanto, a empresa enfrenta críticas e processos judiciais relacionados a informações de saúde potencialmente prejudiciais fornecidas por suas ferramentas, levantando preocupações sobre a segurança e a confiabilidade das informações médicas geradas por IA.

Extensões maliciosas no Chrome comprometem dados de usuários

Pesquisadores de cibersegurança identificaram duas extensões maliciosas na Chrome Web Store que visam exfiltrar conversas do OpenAI ChatGPT e DeepSeek, além de dados de navegação, para servidores controlados por atacantes. As extensões, chamadas ‘Chat GPT for Chrome com GPT-5, Claude Sonnet & DeepSeek AI’ e ‘AI Sidebar com Deepseek, ChatGPT, Claude, e mais’, possuem juntas mais de 900 mil usuários. Elas solicitam permissões para coletar dados de navegação sob o pretexto de melhorar a experiência do usuário, mas na verdade, capturam conversas e URLs de abas abertas a cada 30 minutos. O uso de extensões de navegador para roubar dados de conversas com IA foi denominado ‘Prompt Poaching’. As extensões maliciosas se disfarçam como uma extensão legítima, mas uma vez instaladas, começam a extrair informações sensíveis, que podem ser utilizadas para espionagem corporativa, roubo de identidade e campanhas de phishing. A situação é alarmante, pois as extensões ainda estão disponíveis para download, e a instalação pode resultar em sérias consequências para a privacidade dos usuários e das empresas. A recomendação é que os usuários removam essas extensões e evitem instalar ferramentas de fontes desconhecidas.

OpenAI admite que novos modelos podem representar alto risco cibernético

A OpenAI alertou que seus futuros Modelos de Linguagem de Grande Escala (LLMs) podem representar riscos cibernéticos significativos, potencialmente facilitando o desenvolvimento de exploits zero-day e campanhas de ciberespionagem avançadas. Em um recente comunicado, a empresa destacou que as capacidades cibernéticas de seus modelos estão evoluindo rapidamente, o que, embora possa parecer preocupante, também traz benefícios para a defesa cibernética. Para mitigar esses riscos, a OpenAI está investindo em ferramentas de defesa, controles de acesso e um programa de cibersegurança em camadas. A empresa planeja introduzir um programa que oferecerá aos usuários acesso a capacidades aprimoradas para tarefas de cibersegurança. Além disso, a OpenAI formará um conselho consultivo, o Frontier Risk Council, composto por especialistas em cibersegurança, que ajudará a definir limites entre capacidades úteis e potenciais abusos. A OpenAI também participa do Frontier Model Forum, onde compartilha conhecimentos e melhores práticas com parceiros da indústria, visando identificar como as capacidades de IA podem ser potencialmente armadas e como mitigar esses riscos.

Aplicativos fraudulentos para Mac exploram marcas do Google e OpenAI

Recentemente, a segurança da App Store da Apple foi colocada em xeque após a descoberta de aplicativos fraudulentos que imitam produtos de inteligência artificial da Google e OpenAI. O desenvolvedor Neural Techlabs tem sido identificado como responsável pela publicação repetida de aplicativos que utilizam logotipos, nomes e interfaces semelhantes aos softwares legítimos, como o Google Gemini e o ChatGPT. Apesar de algumas dessas aplicações terem sido removidas anteriormente por infrações de propriedade intelectual, novas versões continuam a surgir, evidenciando falhas no processo de revisão da Apple. Os aplicativos, como ‘AI Chat Bot for Google Gemini’, criam confusão entre os usuários e podem expô-los a riscos de segurança, como a interação com informações sensíveis. A persistência dessas violações levanta preocupações sobre a eficácia das medidas de segurança da Apple e a necessidade de os usuários verificarem as credenciais dos desenvolvedores antes de baixar aplicativos. A situação destaca a vulnerabilidade do ecossistema da App Store e a importância de uma vigilância contínua contra fraudes digitais.

OpenAI confirma vazamento de e-mails e nomes de clientes

A OpenAI alertou seus usuários sobre uma possível violação de segurança que afetou a Mixpanel, uma empresa de análise de dados. Um hacker conseguiu acesso não autorizado aos sistemas da Mixpanel no início de novembro, resultando na exportação de dados que incluíam nomes de clientes, e-mails, localização aproximada, sistema e navegador utilizados, além de IDs diversos. A OpenAI informou que muitos dos dados comprometidos podem ter sido obtidos através de ataques de phishing, que utilizam engenharia social para enganar usuários desprevenidos. A empresa recomendou que os usuários verifiquem mensagens suspeitas, especialmente aquelas que solicitam informações sensíveis. Em resposta ao incidente, a OpenAI decidiu remover a Mixpanel de seus serviços, mas continuará a colaborar com a empresa durante as investigações. É importante destacar que a violação não afetou diretamente o ChatGPT ou outros produtos da OpenAI relacionados a interações de chat. A quantidade exata de dados vazados ainda não foi determinada, mas a situação levanta preocupações sobre a segurança de dados em serviços amplamente utilizados.

Nova falha no ChatGPT permite roubo de dados e histórico de conversas

Um relatório da Tenable Research revelou sete falhas de segurança na plataforma ChatGPT da OpenAI, que podem ser exploradas por cibercriminosos para roubar dados dos usuários e até controlar o chatbot. A principal vulnerabilidade identificada é a ‘injeção de prompt’, onde hackers enviam instruções maliciosas ao ChatGPT sem que o usuário perceba. Os especialistas demonstraram duas formas de ataque: a primeira envolve a inserção de um comentário malicioso em um blog, que pode ser ativado quando o usuário pede um resumo ao ChatGPT. A segunda é um ataque de clique zero, onde o hacker cria um site que, ao ser indexado pelo ChatGPT, pode comprometer o usuário sem qualquer interação. Além disso, a falha de ‘injeção de memória’ permite que comandos maliciosos sejam salvos no histórico do usuário, possibilitando o roubo de dados sensíveis em interações futuras. A OpenAI foi notificada sobre essas vulnerabilidades, que afetam os modelos ChatGPT 4o e GPT-5, mas ainda não há informações sobre correções.

Conversas no ChatGPT vazam para ferramenta de SEO do Google

Recentemente, foi descoberto que conversas realizadas no ChatGPT estavam vazando para o Google Search Console (GSC), uma ferramenta utilizada por desenvolvedores para monitorar o tráfego de pesquisas. O consultor Jason Packer, da Quantable, identificou que pesquisas feitas no ChatGPT, incluindo interações pessoais e profissionais, estavam sendo exibidas no GSC, o que levanta preocupações sobre a privacidade dos usuários. A OpenAI, responsável pelo ChatGPT, reconheceu a existência de um problema que afetou temporariamente o caminho de algumas buscas, mas não forneceu detalhes sobre a natureza do vazamento. Aproximadamente 200 pesquisas estranhas foram registradas, revelando que os prompts dos usuários não são tão privados quanto se poderia supor. Os especialistas sugerem que a OpenAI deve aumentar a transparência em relação a incidentes como este e reforçar a proteção da privacidade dos usuários, especialmente em um contexto onde a conformidade com a LGPD é crucial. O vazamento é considerado um incidente de segurança que pode impactar a confiança dos usuários e a reputação da OpenAI.

Novo malware utiliza API do ChatGPT para roubo de dados

Pesquisadores da Equipe de Detecção e Resposta (DART) da Microsoft identificaram um novo malware chamado SesameOp, que utiliza a API Assistants da OpenAI como centro de comando e controle. Este malware foi detectado após uma série de ataques em julho de 2025 e é capaz de permanecer ativo em sistemas invadidos por meses, utilizando serviços em nuvem para comunicação. Os hackers enviam comandos criptografados à API, que os repassa ao malware, que por sua vez criptografa os dados roubados e os envia de volta. O SesameOp se destaca por não explorar vulnerabilidades da plataforma da OpenAI, mas sim por abusar de funcionalidades existentes. O malware é implementado através de um loader ofuscado e backdoor baseado em .NET, utilizando ferramentas do Microsoft Visual Studio para injeção. A Microsoft e a OpenAI estão colaborando nas investigações, que já resultaram na desativação de contas e chaves de API associadas aos cibercriminosos. Para mitigar riscos, recomenda-se que empresas auditem seus registros de firewall e monitorem atividades não autorizadas.

Vulnerabilidades no ChatGPT podem expor dados pessoais de usuários

Pesquisadores de cibersegurança revelaram um conjunto de sete vulnerabilidades que afetam os modelos GPT-4o e GPT-5 da OpenAI, incluindo técnicas de injeção de prompt que podem ser exploradas por atacantes para roubar informações pessoais dos usuários. As falhas permitem que um invasor manipule o comportamento esperado do modelo de linguagem, levando-o a executar ações maliciosas sem o conhecimento do usuário. Entre as vulnerabilidades estão a injeção de prompt indireta via sites confiáveis, a injeção de prompt sem clique e a injeção de memória, que podem comprometer a privacidade dos dados armazenados nas interações do ChatGPT. A OpenAI já tomou medidas para corrigir algumas dessas falhas, mas a pesquisa destaca a necessidade de mecanismos de segurança mais robustos. Além disso, o estudo alerta para a crescente complexidade das ameaças, como ataques de injeção de prompt que podem ser realizados com um número reduzido de documentos maliciosos, tornando esses ataques mais acessíveis para potenciais invasores. A situação exige atenção redobrada de empresas e profissionais de segurança da informação, especialmente em um cenário onde a proteção de dados pessoais é cada vez mais crítica.

Microsoft revela backdoor que usa API da OpenAI para comunicação

A Microsoft divulgou detalhes sobre um novo backdoor chamado SesameOp, que utiliza a API de Assistentes da OpenAI para comunicações de comando e controle (C2). Em um relatório técnico, a equipe de Resposta a Incidentes da Microsoft (DART) explicou que, em vez de métodos tradicionais, os atacantes abusam da OpenAI como um canal C2 para orquestrar atividades maliciosas de forma furtiva. O backdoor foi descoberto em julho de 2025, após uma intrusão sofisticada que permitiu que os atacantes mantivessem acesso persistente ao ambiente comprometido por vários meses. O malware é projetado para executar comandos recebidos através da API da OpenAI, que serve como um mecanismo de armazenamento ou retransmissão. A cadeia de infecção inclui um componente carregador e um backdoor baseado em .NET, que busca comandos criptografados, os decodifica e os executa localmente. Os resultados são enviados de volta à OpenAI. A Microsoft informou que compartilhou suas descobertas com a OpenAI, que desativou uma chave de API e uma conta associada ao adversário. Este incidente destaca o uso crescente de ferramentas legítimas para fins maliciosos, dificultando a detecção de atividades maliciosas em redes normais.

OpenAI Lança Aardvark, Agente GPT-5 para Detectar Vulnerabilidades

A OpenAI apresentou o Aardvark, um agente de segurança baseado em inteligência artificial que utiliza a tecnologia GPT-5 para detectar e corrigir vulnerabilidades em softwares de forma autônoma. Este novo recurso, atualmente em beta privada, visa oferecer proteção contínua às equipes de desenvolvimento contra ameaças emergentes. O Aardvark opera em quatro etapas principais: análise, varredura de commits, validação e correção. Ele cria um modelo de ameaça abrangente e analisa mudanças no código para identificar potenciais vulnerabilidades, testando-as em um ambiente isolado antes de gerar correções. Em testes, o Aardvark alcançou uma taxa de detecção de 92% para vulnerabilidades conhecidas, demonstrando eficácia em cenários reais. A OpenAI também aplicou o Aardvark em projetos de código aberto, onde descobriu várias vulnerabilidades, algumas das quais receberam identificadores CVE. A empresa planeja oferecer varredura gratuita para repositórios de código aberto não comerciais, contribuindo para a segurança da cadeia de suprimentos de software. Apesar de suas capacidades, o Aardvark apresenta riscos, como a possibilidade de falsos positivos e a dependência da análise de linguagem natural, o que pode exigir a combinação com ferramentas tradicionais de segurança.

OpenAI lança Aardvark, pesquisador de segurança autônomo com IA

A OpenAI anunciou o lançamento do Aardvark, um pesquisador de segurança autônomo alimentado pelo modelo de linguagem GPT-5. Este agente de inteligência artificial foi projetado para ajudar desenvolvedores e equipes de segurança a identificar e corrigir vulnerabilidades em código de forma escalável. Atualmente em beta privada, o Aardvark analisa repositórios de código-fonte continuamente, identificando vulnerabilidades, avaliando sua explorabilidade e propondo correções. O modelo GPT-5, introduzido em agosto de 2025, oferece capacidades de raciocínio mais profundas e um ‘roteador em tempo real’ para otimizar a interação com os usuários.

Navegador Atlas da OpenAI é Jailbroken para Ocultar Prompts Maliciosos

Pesquisadores de cibersegurança da NeuralTrust descobriram uma vulnerabilidade crítica no navegador Atlas da OpenAI, que permite a atacantes disfarçar instruções maliciosas como URLs legítimas, burlando os controles de segurança do sistema. A falha explora a omnibox, a barra de endereço e pesquisa combinada, manipulando a forma como o Atlas distingue entre solicitações de navegação e comandos em linguagem natural.

Os atacantes criam strings que parecem URLs válidas, mas que contêm erros sutis de formatação. Quando um usuário insere essas strings na omnibox, o Atlas não valida corretamente a URL e trata o conteúdo como um comando confiável, permitindo que instruções maliciosas sejam executadas com privilégios elevados.

Vulnerabilidade no ChatGPT Atlas permite injeção de código malicioso

Pesquisadores de cibersegurança identificaram uma nova vulnerabilidade no navegador ChatGPT Atlas da OpenAI, que pode permitir que agentes maliciosos injetem instruções prejudiciais na memória do assistente de inteligência artificial. Essa falha, baseada em um erro de falsificação de solicitação entre sites (CSRF), possibilita que as instruções maliciosas persistam entre dispositivos e sessões, comprometendo a segurança do usuário. A memória, introduzida pela OpenAI em fevereiro de 2024, visa personalizar as interações, mas, se corrompida, pode ser utilizada para executar códigos arbitrários sem o conhecimento do usuário. A vulnerabilidade é agravada pela falta de controles robustos contra phishing no ChatGPT Atlas, tornando os usuários até 90% mais expostos em comparação com navegadores tradicionais como Google Chrome e Microsoft Edge. O ataque pode ser desencadeado por meio de engenharia social, onde o usuário é induzido a clicar em um link malicioso. Uma vez que a memória do ChatGPT é comprometida, comandos normais podem ativar a execução de códigos maliciosos, resultando em escalonamento de privilégios ou exfiltração de dados. Essa situação representa um risco significativo, pois transforma uma funcionalidade útil em uma ferramenta de ataque.

Navegador OpenAI Atlas vulnerável a ataques de injeção de prompt

O navegador OpenAI Atlas, recém-lançado, foi identificado como vulnerável a um ataque de injeção de prompt, onde um prompt malicioso pode ser disfarçado como um URL aparentemente inofensivo. Segundo um relatório da NeuralTrust, o omnibox do navegador, que combina a barra de endereço e de busca, interpreta entradas como URLs ou comandos em linguagem natural. Isso permite que um atacante crie um link que, ao ser inserido, faz com que o navegador execute instruções prejudiciais. Por exemplo, um URL malformado pode redirecionar o usuário para um site controlado pelo atacante, potencialmente levando a páginas de phishing ou até comandos que excluem arquivos de aplicativos conectados, como o Google Drive. A falta de distinção rigorosa entre entradas de usuário confiáveis e conteúdo não confiável no Atlas é uma falha crítica. A situação é agravada por técnicas como o ‘AI Sidebar Spoofing’, onde extensões maliciosas podem enganar usuários a fornecer dados ou instalar malware. Embora a OpenAI tenha implementado medidas de segurança, a injeção de prompt continua a ser um problema de segurança não resolvido, exigindo atenção contínua da indústria de cibersegurança.

OpenAI enfrenta mandado do DHS por dados de usuários do ChatGPT

O Departamento de Segurança Interna dos EUA (DHS) emitiu um mandado inédito exigindo que a OpenAI forneça informações detalhadas sobre as conversas de usuários do ChatGPT, em um caso criminal relacionado a material de exploração infantil. O mandado, que foi deslacrado em Maine, representa um marco na interseção entre inteligência artificial e justiça criminal. A investigação, que começou em 2019, revelou que o suspeito mencionou o uso do ChatGPT durante comunicações com agentes infiltrados. Embora os dados da OpenAI não tenham sido necessários para identificar o suspeito, a solicitação levanta questões sobre privacidade e a responsabilidade das empresas de IA em relação a dados de usuários. A OpenAI já processou milhares de conteúdos relacionados a exploração infantil e atendeu a várias solicitações governamentais. Este caso destaca a crescente tendência de as autoridades considerarem plataformas de IA como fontes de evidência, exigindo uma reavaliação das práticas de coleta de dados e proteção de privacidade por parte das empresas de tecnologia.

Cibercriminosos imitam OpenAI e Sora para roubar credenciais de usuários

O lançamento do Sora 2 AI provocou um aumento nas atividades maliciosas, com cibercriminosos criando domínios falsos que imitam os serviços oficiais da OpenAI para roubar credenciais de usuários e realizar fraudes em criptomoedas. Relatórios de inteligência de ameaças indicam que páginas clonadas do Sora estão sendo utilizadas para coletar dados de login, roubar carteiras de criptomoedas e acessar planos de API pagos sem autorização. Os ataques exploram a empolgação dos usuários em relação ao novo lançamento de IA, distribuindo malware e capturando dados financeiros.

Técnica de Injeção de Prompt Permite Bypass do Framework Guardrails da OpenAI

Pesquisadores de segurança revelaram uma vulnerabilidade crítica no framework Guardrails da OpenAI, que pode ser explorada através de métodos simples de injeção de prompt. Essa técnica permite que atacantes manipulem os modelos de linguagem que deveriam garantir a segurança do comportamento da IA, possibilitando a inserção de conteúdo malicioso sem ser detectado. O Guardrails, introduzido em 6 de outubro, utiliza modelos de linguagem como ‘juízes’ para avaliar a segurança de entradas e saídas, mas a pesquisa mostrou que essa abordagem cria um ciclo de segurança ‘cega’. Os atacantes podem enganar esses juízes, manipulando os limiares de confiança e permitindo a execução de instruções perigosas. Os métodos de bypass demonstrados incluem a inserção de instruções maliciosas em templates que imitam avaliações aprovadas e a ocultação de código malicioso em comentários HTML. Essa vulnerabilidade, classificada como ‘composta’, sugere que os juízes baseados em LLM são tão suscetíveis à manipulação quanto os modelos que protegem. Para mitigar esses riscos, as organizações devem implementar defesas em camadas e sistemas de validação independentes, além de monitoramento contínuo.

Malware MalTerminal usa tecnologia LLM para gerar código de ransomware

Pesquisadores de segurança da SentinelLABS revelaram o MalTerminal, um novo malware que utiliza modelos de linguagem de grande escala (LLM) para gerar código de ransomware. Este executável para Windows, identificado após um ano de investigação, incorpora um endpoint da API de chat do OpenAI GPT-4, que foi descontinuado em novembro de 2023, indicando que o malware pode ter surgido entre o final de 2023 e o início de 2024. Os analistas desenvolveram regras YARA para detectar padrões de chaves de API exclusivas de provedores de LLM, encontrando mais de 7.000 amostras com mais de 6.000 chaves únicas. O MalTerminal se destaca como o primeiro exemplo conhecido de malware que gera lógica maliciosa dinamicamente em tempo de execução, emitindo um payload JSON estruturado para o endpoint GPT-4 e definindo seu papel como um especialista em cibersegurança. Embora não haja evidências de que o MalTerminal tenha sido implantado em ambientes reais, sua dependência de serviços comerciais de LLM e chaves de API válidas apresenta uma janela estreita para que os defensores aprimorem suas estratégias de detecção antes que arquiteturas mais resilientes sejam adotadas pelos adversários.

OpenAI desmantela grupos que usavam ChatGPT para desenvolver malware

No dia 8 de outubro de 2025, a OpenAI anunciou a interrupção de três grupos de atividade que estavam utilizando sua ferramenta de inteligência artificial, o ChatGPT, para facilitar o desenvolvimento de malware. Um dos grupos, de língua russa, usou o chatbot para criar e aprimorar um trojan de acesso remoto (RAT) e um ladrão de credenciais, buscando evitar a detecção. A OpenAI observou que esses usuários estavam associados a grupos criminosos que compartilhavam evidências de suas atividades em canais do Telegram. Embora os modelos de linguagem da OpenAI tenham se recusado a atender a pedidos diretos para criar conteúdo malicioso, os criminosos contornaram essa limitação, gerando códigos que foram montados para criar fluxos de trabalho maliciosos. Outro grupo, da Coreia do Norte, utilizou o ChatGPT para desenvolver malware e ferramentas de comando e controle, enquanto um terceiro grupo, da China, focou em campanhas de phishing. Além disso, a OpenAI bloqueou contas que estavam envolvidas em fraudes e operações de influência, incluindo atividades de vigilância ligadas a entidades governamentais chinesas. A empresa destacou que os atores de ameaça estão se adaptando para ocultar sinais de que o conteúdo foi gerado por uma ferramenta de IA, o que representa um novo desafio para a segurança cibernética.

Falha no ChatGPT permitia roubar dados do Gmail sem cliques

Uma vulnerabilidade na ferramenta Deep Research do ChatGPT, descoberta pela Radware, permitia que dados do Gmail de usuários fossem coletados sem que eles precisassem clicar em qualquer link. O recurso, lançado em fevereiro, foi projetado para realizar pesquisas mais robustas e rápidas, mas, ao se conectar às contas do Gmail, expôs informações pessoais como nome e endereço. A Radware testou a falha enviando e-mails a si mesmos com instruções ocultas, que permitiram que a IA coletasse dados e os enviasse a um endereço controlado pelos pesquisadores. A OpenAI, responsável pelo ChatGPT, corrigiu a falha em 3 de setembro e afirmou que não há evidências de que a vulnerabilidade tenha sido explorada por hackers. No entanto, a possibilidade de uso de dados para ataques de phishing no futuro permanece. A empresa ressaltou que a segurança é uma prioridade e que a análise da Radware contribuiu para a melhoria das ferramentas. Este incidente destaca a necessidade de vigilância contínua em relação à segurança de ferramentas de IA, especialmente aquelas que interagem com dados sensíveis dos usuários.

Vulnerabilidade no ChatGPT permite vazamento de dados do Gmail

Pesquisadores de cibersegurança revelaram uma falha de zero-click no agente Deep Research do ChatGPT da OpenAI, que pode permitir que um atacante vaze dados sensíveis da caixa de entrada do Gmail com um único e-mail malicioso, sem qualquer ação do usuário. Nomeado de ShadowLeak, o ataque utiliza injeções de prompt indiretas escondidas em HTML de e-mails, como texto branco sobre fundo branco, para que o usuário não perceba as instruções. Quando o usuário solicita ao ChatGPT que analise seus e-mails, o agente pode ser induzido a extrair informações pessoais e enviá-las para um servidor externo. Essa vulnerabilidade é particularmente preocupante, pois ocorre diretamente na infraestrutura em nuvem da OpenAI, contornando defesas locais e corporativas. O ataque pode ser ampliado para outros conectores suportados pelo ChatGPT, como Dropbox e Google Drive. Além disso, a pesquisa também destaca como o ChatGPT pode ser manipulado para resolver CAPTCHAs, evidenciando a necessidade de integridade de contexto e monitoramento contínuo. A OpenAI já abordou a questão em agosto de 2025, após a divulgação responsável do problema em junho do mesmo ano.

Entenda os perigos de compartilhar suas informações com o ChatGPT

O uso de chatbots como o ChatGPT levanta preocupações significativas sobre a privacidade dos dados dos usuários. Recentemente, um incidente envolvendo o compartilhamento de buscas do ChatGPT com o Google gerou alvoroço, pois usuários viram suas perguntas, incluindo dados pessoais, aparecerem em pesquisas na web. A OpenAI, após críticas, removeu a ferramenta de compartilhamento, mas a situação expõe um problema maior: o que as empresas fazem com os dados coletados? Apesar de esforços para remover conteúdo indexado, a OpenAI é legalmente obrigada a reter as perguntas dos usuários, mesmo aquelas deletadas. Isso levanta questões sobre a segurança dos dados, especialmente em um contexto onde hackers podem explorar vulnerabilidades para acessar informações confidenciais. Especialistas alertam que, mesmo sem intenção, usuários podem revelar dados pessoais a IAs, especialmente quando estas são programadas para agir de forma sociável. A recomendação é que os usuários evitem compartilhar informações sensíveis e que as empresas implementem medidas para proteger a privacidade dos dados. O artigo destaca a necessidade de conscientização sobre os riscos associados ao uso de IAs e a importância de ler os Termos e Condições antes de aceitar compartilhar informações.