Gpt-5

HackedGPT Sete novas vulnerabilidades em GPT-4o e GPT-5 permitem ataques sem clique

Pesquisadores de segurança da Tenable descobriram sete vulnerabilidades críticas nos modelos ChatGPT da OpenAI, que expõem milhões de usuários a ataques sofisticados sem necessidade de interação direta. Essas falhas permitem que agentes maliciosos roubem dados sensíveis e comprometam sistemas, levantando sérias questões sobre a segurança dos modelos de linguagem. As vulnerabilidades afetam tanto o GPT-5 quanto o ChatGPT-4, explorando fraquezas na forma como esses modelos processam dados externos e gerenciam informações do usuário. Um dos pontos mais preocupantes é a capacidade de contornar mecanismos de segurança do ChatGPT utilizando links de rastreamento do Bing, permitindo que atacantes exfiltratem dados do usuário de forma discreta. Além disso, a técnica de Injeção de Memória possibilita que instruções maliciosas sejam persistentes em várias conversas, vazando informações privadas sem que o usuário perceba. A pesquisa também identificou uma vulnerabilidade de renderização de markdown, que oculta conteúdos maliciosos, tornando os ataques praticamente invisíveis. Esses vetores de ataque representam uma ameaça significativa, especialmente para organizações que utilizam o ChatGPT em trabalhos sensíveis, exigindo uma resposta rápida da OpenAI para mitigar os riscos.

OpenAI Lança Aardvark, Agente GPT-5 para Detectar Vulnerabilidades

A OpenAI apresentou o Aardvark, um agente de segurança baseado em inteligência artificial que utiliza a tecnologia GPT-5 para detectar e corrigir vulnerabilidades em softwares de forma autônoma. Este novo recurso, atualmente em beta privada, visa oferecer proteção contínua às equipes de desenvolvimento contra ameaças emergentes. O Aardvark opera em quatro etapas principais: análise, varredura de commits, validação e correção. Ele cria um modelo de ameaça abrangente e analisa mudanças no código para identificar potenciais vulnerabilidades, testando-as em um ambiente isolado antes de gerar correções. Em testes, o Aardvark alcançou uma taxa de detecção de 92% para vulnerabilidades conhecidas, demonstrando eficácia em cenários reais. A OpenAI também aplicou o Aardvark em projetos de código aberto, onde descobriu várias vulnerabilidades, algumas das quais receberam identificadores CVE. A empresa planeja oferecer varredura gratuita para repositórios de código aberto não comerciais, contribuindo para a segurança da cadeia de suprimentos de software. Apesar de suas capacidades, o Aardvark apresenta riscos, como a possibilidade de falsos positivos e a dependência da análise de linguagem natural, o que pode exigir a combinação com ferramentas tradicionais de segurança.