Ia

Vulnerabilidades críticas no servidor Git MCP da Anthropic

Um conjunto de três vulnerabilidades de segurança foi revelado no mcp-server-git, o servidor oficial do Protocolo de Contexto de Modelo Git (MCP) mantido pela Anthropic. Essas falhas podem ser exploradas para ler ou deletar arquivos arbitrários e executar código sob certas condições. Segundo o pesquisador Yarden Porat, da Cyata, a exploração ocorre por meio de injeção de prompt, permitindo que um atacante influencie o que um assistente de IA lê, como um README malicioso ou uma descrição de problema comprometida, sem acesso direto ao sistema da vítima. As vulnerabilidades, identificadas como CVE-2025-68143, CVE-2025-68144 e CVE-2025-68145, têm pontuações CVSS que variam de 7.1 a 8.8, indicando um risco elevado. Elas foram corrigidas nas versões 2025.9.25 e 2025.12.18, após divulgação responsável em junho de 2025. A exploração bem-sucedida pode permitir que um atacante transforme qualquer diretório em um repositório Git e acesse repositórios no servidor. Em resposta, a ferramenta git_init foi removida do pacote e validações adicionais foram implementadas. Usuários são aconselhados a atualizar para as versões mais recentes para garantir proteção adequada.

Google testa Skills para Gemini no Chrome

O Google está testando uma nova funcionalidade chamada ‘Skills’ para o Gemini, sua inteligência artificial integrada ao navegador Chrome. Essa funcionalidade permitirá que o Gemini execute tarefas automaticamente, atuando como um assistente dentro do navegador. Atualmente, o Gemini já está disponível para usuários de desktop nos Estados Unidos, onde pode ajudar a explicar partes confusas de páginas, resumir conteúdos e comparar informações entre várias abas. Por exemplo, ao pesquisar por voos, hotéis e atividades, o usuário pode solicitar que o Gemini compile as informações em um único plano claro.

Google Chrome permite excluir modelos de IA da proteção aprimorada

O Google Chrome agora oferece a opção de excluir modelos de inteligência artificial (IA) que alimentam sua funcionalidade de ‘Proteção Aprimorada’, atualizada no ano passado com capacidades de IA. Essa proteção, que já existia há alguns anos, foi aprimorada para fornecer segurança em tempo real contra sites, downloads e extensões perigosas. Embora não esteja claro como essa nova versão se diferencia da anterior, a IA pode estar sendo utilizada para identificar padrões em tempo real e alertar os usuários sobre sites potencialmente prejudiciais, mesmo aqueles que não foram previamente identificados pelo Google. Além disso, a proteção baseada em IA realiza uma varredura detalhada de downloads suspeitos. Para excluir o modelo de IA, os usuários devem acessar as configurações do Chrome e desativar a opção ‘On-device GenAI’. Essa funcionalidade está atualmente disponível na versão Canary do Chrome e será lançada para todos em breve. É importante notar que o modelo de IA local também pode ser utilizado para outras funcionalidades além da detecção de fraudes.

Extensão Copilot Studio para VS Code agora disponível para todos os usuários

A Microsoft anunciou que a extensão Copilot Studio para o Visual Studio Code (VS Code) está agora acessível a todos os desenvolvedores. Essa ferramenta permite que os usuários construam e gerenciem agentes do Copilot Studio diretamente no VS Code, utilizando fluxos de trabalho padrão de desenvolvimento de software. O VS Code, um editor de código multiplataforma amplamente utilizado, oferece integração com Git e suporte a pipelines de CI/CD, além de permitir a personalização através de extensões.

Novo método de ataque permite exfiltração de dados de chatbots

Pesquisadores de cibersegurança revelaram um novo método de ataque chamado Reprompt, que pode permitir que criminosos exfiltratem dados sensíveis de chatbots de inteligência artificial, como o Microsoft Copilot, com apenas um clique. Segundo Dolev Taler, pesquisador da Varonis, o ataque não requer interação adicional do usuário após o primeiro clique em um link legítimo. O Reprompt utiliza três técnicas principais: a injeção de instruções via parâmetro de URL, a manipulação das salvaguardas de proteção de dados e a criação de uma cadeia contínua de solicitações que permite a exfiltração dinâmica de dados. Isso significa que, após um único clique, o atacante pode controlar a sessão do Copilot e solicitar informações sensíveis, como detalhes sobre arquivos acessados ou dados pessoais do usuário. Embora a Microsoft tenha corrigido a vulnerabilidade, o ataque destaca a fragilidade das defesas atuais contra injeções de prompt, que continuam a ser uma preocupação crescente na segurança de sistemas de IA. O Reprompt exemplifica como a falta de distinção entre instruções de usuários e solicitações externas pode ser explorada, tornando-se um ponto cego na segurança das empresas.

ServiceNow vulnerável devido a falhas na autenticação com IA

A ServiceNow, uma das principais empresas de TI do mundo, enfrentou uma grave vulnerabilidade de segurança relacionada à autenticação, que a deixou exposta a ataques cibernéticos. A falha, identificada pela AppOmni, permitia que hackers acessassem a infraestrutura da empresa utilizando apenas o e-mail de um usuário, sem a necessidade de senha ou autenticação adicional. Isso se deu em parte pela implementação de um chatbot, o Virtual Agent, que foi distribuído com credenciais comuns para todos os serviços de terceiros. A situação se agravou com a atualização do agente virtual para a tecnologia Now Assist, que ampliou o potencial de exploração para outras plataformas internas, como Salesforce e Microsoft. Embora a ServiceNow tenha corrigido a vulnerabilidade em outubro de 2025, a falha representa um risco crítico para a cadeia de suprimentos, uma vez que a empresa atende 85% das companhias da Fortune 500. Especialistas recomendam que as empresas não apenas apliquem patches, mas também evitem conceder a agentes de IA a capacidade de realizar ações críticas sem supervisão adequada.

Botnet ataca bases de dados de criptomoedas com credenciais criadas por IA

Uma nova onda de ataques cibernéticos, conhecida como GoBruteforcer, está focando em bases de dados de criptomoedas e projetos de blockchain. Esses ataques utilizam botnets para realizar preenchimento de credenciais em massa, invadindo contas por meio de força bruta. Os serviços mais afetados incluem FTP, MySQL, PostgreSQL e phpMyAdmin em servidores Linux. Pesquisadores da Check Point Research identificaram que a campanha é impulsionada pelo uso de servidores gerados por inteligência artificial (IA) que propagam nomes de usuário e senhas padrão, além da presença de stacks web legados, como o XAMPP, que expõem interfaces com segurança mínima. A GoBruteforcer foi inicialmente descoberta pela Palo Alto Networks em março de 2023 e, em 2025, a equipe Black Lotus da Lumen Technologies confirmou a integração de bots da família SystemBC na botnet. Os hackers exploram servidores vulneráveis para subir web shells em PHP, permitindo o download de bots que executam scripts maliciosos. Isso possibilita ataques de força bruta, hospedagem de payloads maliciosos e controle remoto dos servidores. É crucial que as organizações verifiquem se suas implementações não utilizam credenciais padrão ou são baseadas em IA generativa para evitar invasões e a integração em botnets como a GoBruteforcer.

Extensões populares do Chrome roubam conversas do ChatGPT

Pesquisadores da Ox Security identificaram atividades maliciosas em duas extensões da Chrome Web Store, que estão coletando dados de usuários de chatbots de IA, como ChatGPT e DeepSeek. As extensões, chamadas ‘Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI’ e ‘AI Sidebar with Deepseek, ChatGPT, Claude, and more’, possuem, respectivamente, 600 mil e 300 mil usuários. Elas enviam informações a servidores controlados por hackers a cada 30 segundos, utilizando um truque que solicita consentimento para compartilhar ‘dados analíticos anônimos’. Na verdade, elas coletam todo o conteúdo das conversas dos usuários. Essa prática, conhecida como ‘Prompt Poaching’, já foi observada em outras extensões, como a Urban VPN Proxy. As extensões maliciosas imitam uma ferramenta legítima, mas podem expor dados sensíveis, incluindo informações corporativas. Apesar de perderem o selo ‘Em Destaque’, continuam disponíveis na loja. A recomendação é que os usuários evitem instalar extensões de fontes desconhecidas, mesmo que pareçam confiáveis.

OpenAI lança ChatGPT Health com foco em saúde e privacidade

A OpenAI anunciou o lançamento do ChatGPT Health, uma nova funcionalidade que permite aos usuários interagir com um chatbot sobre questões de saúde. Este espaço dedicado oferece a opção de conectar de forma segura registros médicos e aplicativos de bem-estar, como Apple Health e MyFitnessPal, para fornecer respostas personalizadas, conselhos nutricionais e sugestões de exercícios. A empresa enfatiza que o ChatGPT Health foi projetado para apoiar, e não substituir, cuidados médicos, e que as conversas são protegidas por criptografia e isolamento. Além disso, as interações na plataforma não são utilizadas para treinar modelos de IA da OpenAI. A nova funcionalidade está disponível para usuários fora da Área Econômica Europeia, Suíça e Reino Unido. A OpenAI também destacou que o modelo foi avaliado com base em padrões clínicos, visando garantir que ele atenda às necessidades reais dos usuários. No entanto, a empresa enfrenta críticas e processos judiciais relacionados a informações de saúde potencialmente prejudiciais fornecidas por suas ferramentas, levantando preocupações sobre a segurança e a confiabilidade das informações médicas geradas por IA.

Extensão do Claude para Chrome pode expor dados de usuários

Especialistas da Zenity Labs alertaram sobre uma nova extensão do Claude, assistente de IA da Anthropic, que opera no Google Chrome e pode expor dados pessoais dos usuários a riscos de segurança. A extensão, que foi lançada em versão beta, permite que a ferramenta interaja com outros sites sem supervisão humana, o que significa que, uma vez instalada, ela pode navegar e realizar ações em plataformas como Google Drive e Slack como se fosse o próprio usuário. Isso levanta preocupações sobre a segurança, pois a extensão permanece conectada continuamente, sem a possibilidade de ser desativada manualmente. Os pesquisadores observaram que a extensão pode acessar informações sensíveis, como tokens de login, e realizar ações prejudiciais, como excluir e-mails ou modificar arquivos, sem o conhecimento do usuário. Além disso, a proteção básica do Claude, que solicita permissão do usuário antes de realizar ações, falha em impedir essas atividades, levando a um cenário de ‘fadiga de aprovação’, onde os usuários clicam em ‘OK’ sem verificar as ações da IA. Essa situação destaca a necessidade urgente de uma revisão das práticas de segurança em relação a extensões de navegador e ferramentas de IA.

A Evolução da Cibersegurança em um Mundo Impulsionado por IA

A cibersegurança está passando por uma transformação significativa, impulsionada por mudanças nas infraestruturas de nuvem, pontos finais distribuídos e cadeias de suprimento complexas. O foco da segurança deixou de ser uma coleção de soluções pontuais e passou a ser uma questão de arquitetura, confiança e velocidade de execução. O relatório analisa como áreas centrais da cibersegurança, como autenticação, segurança de dados em SaaS, proteção da cadeia de suprimento de software e gerenciamento de riscos humanos, estão se adaptando a adversários que utilizam técnicas técnicas e sociais de forma mais rápida e integrada.

Deepfakes Riscos e Como se Proteger

Os deepfakes, conteúdos gerados por inteligência artificial que alteram vídeos e fotos de forma hiper-realista, representam um dos maiores desafios para a segurança digital atualmente. Com um aumento alarmante de 700% em fraudes relacionadas a deepfakes no Brasil, segundo a Sumsub, a manipulação de conteúdo pode ter fins ilícitos, como desinformação e golpes. Personalidades públicas são frequentemente alvo, pois há uma abundância de material audiovisual disponível para a criação desses conteúdos. O advogado Mario Cosac destaca que a desinformação pode impactar decisões importantes, como ocorreu no plebiscito do Brexit, enquanto Augusto Salomon, CEO da StarMind, alerta para a falta de preparo das empresas na adoção de ferramentas de IA. Embora não haja legislação específica no Brasil sobre deepfakes, iniciativas em outros países, como a Dinamarca, propõem que cidadãos tenham controle sobre os direitos de uso de suas imagens. Além disso, a educação digital é vista como uma solução essencial para capacitar a população a lidar com essa nova realidade tecnológica, exigindo um pensamento crítico e habilidades de checagem. O artigo enfatiza a necessidade de uma abordagem multifacetada que inclua regulamentação, tecnologia de detecção e educação para mitigar os riscos associados aos deepfakes.

Segurança em SaaS Desafios e Soluções com a IA

Nos últimos anos, a integração de assistentes de inteligência artificial (IA) em aplicações SaaS, como Zoom, Slack e Microsoft 365, trouxe uma nova dinâmica ao gerenciamento de dados e segurança. Esses assistentes, que operam em alta velocidade e com privilégios elevados, criam caminhos de integração dinâmicos entre diferentes sistemas, o que desafia os modelos tradicionais de segurança que assumem interfaces fixas e papéis de usuário estáveis. A dificuldade em rastrear as ações desses agentes de IA, que muitas vezes se misturam aos logs de usuários normais, expõe vulnerabilidades significativas. Para mitigar esses riscos, as equipes de segurança precisam adotar uma abordagem de segurança dinâmica, que monitore e adapte as políticas em tempo real, garantindo visibilidade e auditabilidade das ações dos assistentes de IA. Essa nova camada de segurança deve ser capaz de detectar desvios de acesso e comportamentos anômalos, permitindo uma resposta proativa a incidentes. À medida que as organizações adotam copilotos de IA, é crucial que os líderes de segurança reavaliem suas estratégias para garantir que a inovação não comprometa a segurança dos dados.

Aumenta a Necessidade de Segurança em Desenvolvimento de Software com IA

O crescimento acelerado no desenvolvimento de software assistido por IA traz desafios significativos para as equipes de segurança e privacidade. Com o aumento do número de aplicações e a velocidade das mudanças, as soluções tradicionais de segurança de dados se mostram reativas e ineficazes. Problemas como a exposição de dados sensíveis em logs e a falta de mapeamento preciso de dados aumentam os riscos de privacidade. O HoundDog.ai surge como uma solução proativa, oferecendo um scanner de código focado em privacidade que identifica riscos e vazamentos de dados antes que o código seja implementado. Essa ferramenta analisa rapidamente milhões de linhas de código, permitindo que as equipes detectem e previnam problemas de segurança desde as fases iniciais do desenvolvimento. Além disso, a integração com plataformas como Replit amplia a visibilidade sobre os riscos de privacidade em aplicações geradas por IA. A necessidade de controles de governança e detecção embutidos no processo de desenvolvimento é mais urgente do que nunca, especialmente em um cenário onde a conformidade com legislações como a LGPD é crítica.

A ofensiva impulsionada por IA contra SaaS a identidade é o elo mais fraco

Os ataques cibernéticos modernos estão se transformando, com a identidade se tornando o principal alvo dos criminosos. Em um cenário onde 75% das organizações enfrentaram incidentes relacionados a SaaS no último ano, a maioria envolvendo credenciais comprometidas, a segurança da identidade se torna crucial. Os atacantes utilizam inteligência artificial (IA) para imitar usuários legítimos, contornando controles de segurança e operando de forma discreta em ambientes confiáveis. A IA é empregada em várias etapas do ataque, desde a coleta de informações sobre funcionários até a geração de identidades sintéticas que dificultam a detecção. O uso de modelos de linguagem avançados permite que os criminosos criem campanhas de phishing mais sofisticadas e personalizadas. Além disso, a automação de processos de ataque, como a exploração de credenciais, torna as operações mais eficientes e direcionadas, aumentando a probabilidade de sucesso. Com a identidade se tornando a nova linha de defesa, as empresas precisam reavaliar suas estratégias de segurança para proteger dados críticos em plataformas SaaS.

Seis perguntas para elaborar um plano de habilitação de IA

À medida que nos aproximamos do final de 2025, dois fatos sobre a inteligência artificial (IA) são cruciais para os diretores de segurança da informação (CISOs). Primeiro, a maioria dos funcionários já utiliza ferramentas de IA generativa em suas atividades, mesmo que a empresa não forneça acesso ou proíba seu uso. Segundo, muitos desses funcionários já compartilharam informações internas e confidenciais com essas ferramentas. Um estudo da Microsoft revela que 75% dos trabalhadores do conhecimento estavam usando IA generativa em 2024, e 78% deles utilizavam ferramentas pessoais. Isso gera um aumento no ‘Access-Trust Gap’, que é a diferença entre aplicativos de negócios confiáveis e aqueles não gerenciados que acessam dados corporativos. Para mitigar riscos, as empresas precisam desenvolver um plano de habilitação de IA que inclua governança e controle de acesso. O artigo propõe seis perguntas essenciais para guiar essa elaboração, como quais casos de uso de IA são prioritários e quais ferramentas devem ser adotadas. A falta de governança pode resultar em violações de políticas e consequências legais. Portanto, é fundamental que as empresas adotem uma abordagem proativa e contínua para a governança da IA, garantindo que os funcionários utilizem aplicativos confiáveis e monitorados.

Golpistas envenenam buscas de IA com números de suporte falsos

Cibercriminosos estão utilizando técnicas de envenenamento de IA para promover números falsos de suporte ao cliente em fontes públicas acessadas por chatbots. Um estudo da Aurascape revelou que essa manipulação, chamada de “envenenamento de números de telefone de LLM”, afeta modelos de linguagem como a Visão Geral da Google e o navegador Comet da Perplexity. A técnica, que se assemelha à otimização de motores de busca (SEO), visa garantir que sites fraudulentos sejam utilizados como fontes de informação por assistentes de IA. Isso é feito ao comprometer sites legítimos, como os de instituições governamentais e universidades, e ao abusar de plataformas que permitem conteúdo gerado por usuários, como YouTube e Yelp. Os pesquisadores destacam que a dificuldade em distinguir entre informações legítimas e fraudulentas pode levar a usuários a entrarem em contato com call centers falsos, como demonstrado em casos envolvendo as companhias aéreas Emirates e British Airlines. A recomendação é que os usuários verifiquem a veracidade das informações e evitem compartilhar dados sensíveis com assistentes de IA, que ainda não foram amplamente testados em termos de segurança.

OpenAI admite que novos modelos podem representar alto risco cibernético

A OpenAI alertou que seus futuros Modelos de Linguagem de Grande Escala (LLMs) podem representar riscos cibernéticos significativos, potencialmente facilitando o desenvolvimento de exploits zero-day e campanhas de ciberespionagem avançadas. Em um recente comunicado, a empresa destacou que as capacidades cibernéticas de seus modelos estão evoluindo rapidamente, o que, embora possa parecer preocupante, também traz benefícios para a defesa cibernética. Para mitigar esses riscos, a OpenAI está investindo em ferramentas de defesa, controles de acesso e um programa de cibersegurança em camadas. A empresa planeja introduzir um programa que oferecerá aos usuários acesso a capacidades aprimoradas para tarefas de cibersegurança. Além disso, a OpenAI formará um conselho consultivo, o Frontier Risk Council, composto por especialistas em cibersegurança, que ajudará a definir limites entre capacidades úteis e potenciais abusos. A OpenAI também participa do Frontier Model Forum, onde compartilha conhecimentos e melhores práticas com parceiros da indústria, visando identificar como as capacidades de IA podem ser potencialmente armadas e como mitigar esses riscos.

A segurança na nuvem está mudando como proteger sua infraestrutura

A segurança na nuvem enfrenta novos desafios, com atacantes explorando vulnerabilidades em configurações, identidades e códigos, em vez de realizar ataques diretos. Ferramentas de segurança convencionais frequentemente falham em detectar essas ameaças, que se disfarçam como atividades normais. O time Cortex Cloud da Palo Alto Networks realizará um webinar técnico para discutir três vetores de ataque que estão contornando a segurança tradicional: erros de configuração de identidade na AWS, ocultação de arquivos maliciosos em modelos de IA e permissões excessivas em Kubernetes. Durante a sessão, especialistas mostrarão como esses ataques são realizados e como as equipes podem melhorar a visibilidade e a detecção de ameaças. O evento promete fornecer insights práticos sobre como auditar logs de nuvem, corrigir permissões arriscadas e aplicar controles voltados para IA, ajudando as organizações a se protegerem antes que vulnerabilidades sejam exploradas. A participação é essencial para fechar as lacunas de segurança e evitar surpresas desagradáveis em relatórios de violação.

Sua IA de programação pode estar obedecendo a hackers sem você saber

Uma pesquisa da empresa de segurança Aikido revelou que ferramentas de inteligência artificial (IA) utilizadas em desenvolvimento de software, como Claude Code, Google Gemini e Codex da OpenAI, podem ser vulneráveis a injeções de prompts maliciosos. Essa vulnerabilidade ocorre quando essas ferramentas são integradas em fluxos de trabalho automatizados, como GitHub Actions e GitLab. Agentes maliciosos podem enviar comandos disfarçados de mensagens de commit ou pedidos de pull, levando a IA a interpretá-los como instruções legítimas. Isso representa um risco significativo, pois muitos modelos de IA possuem altos privilégios em repositórios do GitHub, permitindo ações como edição de arquivos e publicação de conteúdo malicioso. Aikido já reportou a falha ao Google, que corrigiu a vulnerabilidade no Gemini CLI, mas a pesquisa indica que o problema é estrutural e afeta a maioria dos modelos de IA. A falha é considerada extremamente perigosa, pois pode resultar no vazamento de tokens privilegiados do GitHub. A situação exige atenção redobrada dos desenvolvedores e gestores de segurança da informação para evitar possíveis explorações.

Mais de 30 falhas em assistentes de programação com IA permitem roubo de dados

O pesquisador de segurança Ari Marzouk identificou mais de 30 vulnerabilidades em Ambientes Integrados de Desenvolvimento (IDEs) que utilizam inteligência artificial para assistência. Essas falhas, coletivamente chamadas de IDEsaster, permitem que atacantes realizem injeções de prompt, utilizando ferramentas legítimas do sistema para roubar dados e executar códigos remotamente. Entre as IDEs afetadas estão Cursor, GitHub Copilot e Zed.dev, com 24 das vulnerabilidades já registradas como CVEs. Marzouk destaca que as IAs de IDE ignoram o software base em suas análises de segurança, considerando as ferramentas como seguras, o que as torna vulneráveis quando um agente de IA é integrado. Os vetores de ataque incluem a manipulação de contextos e a execução de ações sem interação do usuário. Para mitigar esses riscos, recomenda-se que os usuários utilizem IDEs apenas em projetos confiáveis e monitorem constantemente as conexões com servidores. Além disso, é importante revisar manualmente as fontes adicionadas e estar atento a instruções ocultas que possam ser utilizadas para exploração maliciosa.

Vulnerabilidades em IDEs de IA podem levar a vazamentos de dados

Mais de 30 vulnerabilidades de segurança foram reveladas em ambientes de desenvolvimento integrados (IDEs) que utilizam inteligência artificial (IA), permitindo a exfiltração de dados e execução remota de código. Denominadas ‘IDEsaster’ pelo pesquisador Ari Marzouk, essas falhas afetam IDEs populares como Cursor, GitHub Copilot e Kiro.dev, com 24 delas recebendo identificadores CVE. As vulnerabilidades exploram a ineficácia dos modelos de linguagem em distinguir entre comandos legítimos e maliciosos, permitindo que atacantes utilizem injeções de prompt para manipular o contexto e acionar funções legítimas das IDEs. Exemplos de ataques incluem a leitura de arquivos sensíveis e a execução de código malicioso através da edição de arquivos de configuração. Marzouk recomenda que desenvolvedores utilizem IDEs de IA apenas com projetos confiáveis e monitorem continuamente servidores de contexto. As descobertas ressaltam a necessidade de um novo paradigma de segurança, ‘Secure for AI’, para mitigar os riscos associados ao uso de ferramentas de IA em ambientes de desenvolvimento.

Navegadores com IA estão mudando as regras. Sua segurança está acompanhando?

Os navegadores modernos, como Microsoft Edge e Google Chrome, estão incorporando assistentes de IA que prometem facilitar a vida dos usuários, oferecendo resumos de páginas, traduções e automação de tarefas. No entanto, essa conveniência pode vir acompanhada de riscos significativos de segurança. A integração de modelos de linguagem avançados permite que esses navegadores interpretem e atuem sobre o conteúdo da web, mas também os torna vulneráveis a ataques. Um exemplo é a injeção de texto invisível em páginas da web, que pode instruir a IA a roubar credenciais ou executar comandos maliciosos sem que o usuário perceba. Isso representa uma ameaça crítica, pois não gera indicadores claros de comprometimento, dificultando a detecção por ferramentas de segurança tradicionais. À medida que essas tecnologias se tornam comuns, é essencial que as organizações adotem uma postura de segurança mais rigorosa, implementando políticas de uso de IA e monitoramento comportamental para mitigar os riscos associados. A necessidade de suporte gerenciado em centros de operações de segurança (SOCs) é cada vez mais evidente, especialmente para empresas menores que podem não ter os recursos para lidar com essas novas ameaças.

Pacote npm tenta manipular scanners de segurança baseados em IA

Pesquisadores de cibersegurança revelaram a existência de um pacote npm chamado eslint-plugin-unicorn-ts-2, que busca influenciar scanners de segurança impulsionados por inteligência artificial (IA). O pacote, que se apresenta como uma extensão do popular plugin ESLint para TypeScript, foi carregado em fevereiro de 2024 e já foi baixado quase 19 mil vezes. Uma análise da Koi Security identificou que o pacote contém um prompt que sugere que o código é legítimo e testado em um ambiente seguro, embora essa string não afete a funcionalidade do pacote. O código malicioso, introduzido na versão 1.1.3, possui um hook pós-instalação que captura variáveis de ambiente, como chaves de API e credenciais, e as exfiltra para um webhook. Essa abordagem reflete uma nova tática de cibercriminosos que buscam manipular ferramentas de análise baseadas em IA, além de explorar um mercado subterrâneo de modelos de linguagem maliciosos. Apesar das limitações desses modelos, como a geração de código incorreto, eles tornam o cibercrime mais acessível a atacantes inexperientes, permitindo ataques mais sofisticados em larga escala.

Novo IDE Antigravity da Google levanta preocupações de segurança

O novo IDE Antigravity da Google, que utiliza inteligência artificial, já enfrenta sérias críticas relacionadas à segurança. Especialistas da PromptArmor alertaram que, sob configurações padrão, o sistema permite que agentes executem comandos automaticamente, o que pode resultar em comportamentos indesejados. Quando entradas não confiáveis aparecem em arquivos de código, o agente pode ser manipulado para executar comandos não intencionais pelo usuário. Além disso, o IDE apresenta vulnerabilidades que permitem a exfiltração de dados, como credenciais e informações sensíveis, através de instruções ocultas em Markdown ou invocações de ferramentas. Embora a Google tenha implementado algumas salvaguardas, lacunas nos controles de segurança ainda permitem que ataques de injeção de comandos sejam realizados. O IDE também pode contornar restrições de acesso a arquivos sensíveis, como aqueles listados em .gitignore, utilizando comandos de terminal. A empresa reconheceu esses problemas e emitiu avisos durante o processo de integração, mas isso não é suficiente, pois os agentes podem operar sem supervisão. Essa situação destaca os riscos associados ao uso de ferramentas de IA com ampla autonomia, sem as devidas salvaguardas estruturais.

Navegadores de IA podem ser sequestrados com um simples hashtag

Pesquisadores da Cato Networks revelaram uma nova técnica chamada ‘HashJack’, que permite que atacantes manipulem assistentes de IA através de fragmentos ocultos em URLs. Essa vulnerabilidade ocorre quando um hashtag é inserido em um link aparentemente legítimo, permitindo que comandos maliciosos sejam executados localmente no navegador do usuário, sem que ele perceba. Os assistentes de IA podem realizar ações autônomas, como transmitir dados sensíveis para servidores controlados por atacantes, enquanto o usuário continua a ver uma página normal. A pesquisa destaca que muitos navegadores de IA estão sob escrutínio devido a essa falha, que não é detectável por ferramentas de monitoramento tradicionais, pois os fragmentos nunca deixam o dispositivo do usuário. Embora algumas empresas tenham implementado atualizações, a defesa contra essa manipulação indireta depende de como cada assistente processa as instruções ocultas. A conscientização sobre essa limitação é crucial para organizações que utilizam ferramentas de IA, pois as medidas de segurança convencionais não conseguem capturar completamente essas ameaças.

Modelo de IA DeepSeek-R1 gera vulnerabilidades em temas sensíveis

Uma pesquisa da CrowdStrike revelou que o modelo de inteligência artificial (IA) DeepSeek-R1, desenvolvido pela empresa chinesa DeepSeek, produz um número significativamente maior de vulnerabilidades de segurança quando recebe prompts relacionados a temas considerados politicamente sensíveis pela China. A análise indicou que a probabilidade de gerar código com vulnerabilidades graves aumenta em até 50% ao incluir tais tópicos. O modelo, que já enfrentou preocupações de segurança nacional e foi banido em vários países, também censura questões sensíveis, como a Grande Muralha da China e o status político de Taiwan. O Bureau de Segurança Nacional de Taiwan alertou os cidadãos sobre o uso de modelos de IA generativa chineses, que podem distorcer narrativas históricas e amplificar desinformação. A pesquisa da CrowdStrike destacou que, ao solicitar a criação de código para sistemas de controle industrial em regiões sensíveis, a qualidade do código gerado se deteriora, apresentando falhas de segurança significativas. Além disso, o modelo possui um ‘kill switch’ intrínseco, recusando-se a gerar código para temas como o Falun Gong em 45% das tentativas. As descobertas ressaltam a necessidade de cautela ao utilizar ferramentas de IA que podem ser influenciadas por diretrizes políticas.

Vulnerabilidade em IA da ServiceNow permite ataques de injeção

Um novo alerta de segurança destaca como a plataforma de inteligência artificial Now Assist da ServiceNow pode ser explorada por agentes maliciosos. Segundo a AppOmni, configurações padrão da plataforma permitem ataques de injeção de prompt de segunda ordem, onde agentes podem descobrir e recrutar uns aos outros para realizar ações não autorizadas. Isso inclui a cópia e exfiltração de dados sensíveis, modificação de registros e escalonamento de privilégios. O problema não é um bug, mas sim um comportamento esperado devido às configurações padrão que facilitam a comunicação entre agentes. A vulnerabilidade é particularmente preocupante, pois as ações ocorrem em segundo plano, sem que a organização afetada perceba. Para mitigar esses riscos, recomenda-se configurar o modo de execução supervisionada para agentes privilegiados, desabilitar a propriedade de sobreposição autônoma e monitorar o comportamento dos agentes de IA. A ServiceNow reconheceu a questão e atualizou sua documentação, mas a situação ressalta a necessidade de uma proteção mais robusta para agentes de IA em ambientes corporativos.

Navegador é porta de entrada para riscos digitais às empresas, aponta pesquisa

Um novo relatório, o Browser Security Report 2025, revela que a forma como os navegadores são utilizados nas empresas pode ser a principal fonte de ataques cibernéticos. O estudo destaca que vulnerabilidades no navegador, como extensões maliciosas e prompts enganosos, são responsáveis por muitos riscos relacionados à identidade e ao uso de inteligência artificial (IA). Quase metade dos funcionários utiliza ferramentas de IA em contas não monitoradas, aumentando a exposição a ameaças. O relatório aponta que 77% dos casos analisados envolveram cópias de dados em prompts de IA, com 82% ocorrendo em contas pessoais. Além disso, 99% dos usuários utilizam extensões, e 6% delas são consideradas maliciosas. A pesquisa alerta que 60% dos logins corporativos não utilizam autenticação única, dificultando o controle de acesso. Diante desse cenário, é crucial que as empresas adotem medidas de segurança mais rigorosas, como monitoramento de dados copiados e uso de extensões seguras, para evitar vazamentos de informações e ataques cibernéticos.

Microsoft revela novo ataque que espiona chats de IA criptografados

A Microsoft anunciou a descoberta de um novo tipo de ataque cibernético denominado ‘Whisper Leak’, que consegue expor os tópicos discutidos em chats com chatbots de IA, mesmo quando as conversas estão totalmente criptografadas. A pesquisa da empresa indica que atacantes podem analisar o tamanho e o tempo dos pacotes criptografados trocados entre um usuário e um modelo de linguagem, permitindo inferir o conteúdo das discussões. Embora a criptografia proteja o conteúdo das mensagens, a vulnerabilidade reside na forma como os modelos de linguagem enviam respostas, transmitindo dados de forma incremental. Isso cria padrões que podem ser analisados por invasores, permitindo deduzir informações sensíveis. Após a divulgação, empresas como OpenAI e Mistral implementaram medidas para mitigar o problema, como a adição de sequências de texto aleatórias nas respostas. A Microsoft recomenda que os usuários evitem discutir assuntos sensíveis em redes Wi-Fi públicas e utilizem VPNs. Além disso, a pesquisa destaca que muitos modelos de linguagem abertos ainda são vulneráveis a manipulações, especialmente em conversas mais longas, levantando preocupações sobre a segurança das plataformas de chat de IA.

Aumento de 156 em ataques de cadeia de suprimentos habilitados por IA

Os ataques de cadeia de suprimentos habilitados por inteligência artificial (IA) cresceram 156% no último ano, evidenciando a falência das defesas tradicionais. O malware gerado por IA apresenta características inovadoras, como ser polimórfico, consciente do contexto e camuflado semanticamente, o que dificulta sua detecção. Casos reais, como a violação da 3CX que afetou 600 mil empresas, demonstram a gravidade da situação. O tempo médio para identificar uma violação aumentou para 276 dias, e as ferramentas de segurança tradicionais falham em responder a ameaças que se adaptam ativamente. Novas estratégias de defesa estão sendo implementadas, incluindo a segurança ciente de IA e a análise de comportamento. Além disso, a conformidade regulatória, como a Lei de IA da UE, impõe penalidades severas por violações. A situação exige ação imediata das organizações para se protegerem contra essas ameaças emergentes.

65 das principais empresas de IA expõem segredos no GitHub

Uma investigação de segurança revelou que 65% das 50 principais empresas de inteligência artificial (IA) do mundo, avaliadas em mais de 400 bilhões de dólares, expuseram credenciais sensíveis no GitHub. Essas exposições incluem chaves de API e tokens de autenticação, que podem permitir acesso direto aos sistemas das empresas. Os pesquisadores descobriram que os segredos não estavam apenas em repositórios ativos, mas também em forks deletados e contas pessoais de desenvolvedores. A pesquisa destacou que, embora algumas empresas como LangChain e ElevenLabs tenham rapidamente corrigido as vulnerabilidades, quase metade dos vazamentos não recebeu resposta. Para mitigar esses riscos, recomenda-se que as empresas implementem varreduras obrigatórias de segredos em todos os repositórios públicos e estabeleçam canais de divulgação de segurança desde o início. O gerenciamento eficaz de segredos é crucial para proteger os ativos valiosos das empresas de IA e garantir a continuidade da inovação no setor.

IA enfrenta desafios em compras online, revela pesquisa da Microsoft

Uma pesquisa realizada pela Microsoft testou a eficácia de várias IAs agentic em um ambiente simulado de marketplace, revelando falhas significativas na escolha de produtos e na busca por informações. Utilizando um ambiente open-source chamado Magentic Marketplace, a pesquisa envolveu agentes de IA como o Operator da OpenAI e a Business AI da Meta, além de modelos como GPT-5 e Gemini 2.5 Flash. Os agentes foram designados a encontrar o melhor preço entre 300 lojas, mas muitos falharam em realizar comparações adequadas, optando por escolhas que pareciam ‘boas o suficiente’ sem uma análise aprofundada. O estudo também explorou a vulnerabilidade das IAs a manipulações, onde a maioria sucumbiu a táticas de marketing, exceto o Claude Sonnet 4, que se mostrou resistente. Essas falhas levantam preocupações sobre a confiabilidade das IAs como assistentes pessoais, especialmente em contextos críticos como o mercado financeiro, onde decisões automatizadas podem ter consequências significativas. A pesquisa destaca a necessidade de um treinamento mais robusto para essas tecnologias antes que possam ser confiáveis em transações importantes.

Relatório de Segurança de Navegadores 2025 Riscos Emergentes

O Relatório de Segurança de Navegadores 2025 revela que a maioria dos riscos relacionados a identidade, SaaS e inteligência artificial (IA) converge no navegador do usuário, criando uma nova superfície de ameaça. Com quase metade dos funcionários utilizando ferramentas de IA generativa (GenAI) fora da supervisão de TI, 77% deles colam dados em prompts de IA, sendo que 82% dessas colagens vêm de contas pessoais. Além disso, 99% dos usuários corporativos têm extensões instaladas, muitas das quais não são geridas adequadamente, aumentando o risco de vazamentos de dados. Os navegadores de IA, que integram modelos de linguagem diretamente na camada de navegação, também representam uma nova superfície de ataque, permitindo que dados sensíveis sejam processados sem controle. O relatório destaca que as ferramentas tradicionais de segurança, como DLP e EDR, não são suficientes para monitorar essas atividades, pois não inspecionam o que acontece dentro das sessões de navegação. Para mitigar esses riscos, é necessário adotar controles nativos de sessão que ofereçam visibilidade e proteção em tempo real, sem comprometer a experiência do usuário.

Atores de Ameaça Usam IA para Atacar Empresas de Manufatura

Um novo relatório revela que 94% das empresas do setor de manufatura estão utilizando aplicações de inteligência artificial generativa (genAI), enquanto enfrentam um aumento nas ameaças cibernéticas. A adoção acelerada de IA tem ampliado a superfície de ataque, com organizações compartilhando documentos técnicos sensíveis com plataformas de IA. Embora o uso de contas pessoais de genAI tenha diminuído, a utilização de soluções aprovadas pelas organizações aumentou, refletindo uma maior conscientização sobre os riscos de governança de dados. No entanto, 67% das empresas estão conectadas a APIs que podem ser vulneráveis a compromissos. Os canais de distribuição de malware estão se aproveitando de serviços de nuvem confiáveis, com o Microsoft OneDrive sendo a plataforma mais explorada, seguida pelo GitHub e Google Drive. As empresas estão implementando controles mais rigorosos, mas a mistura de dados corporativos e pessoais continua a representar riscos significativos. Especialistas em cibersegurança recomendam inspeção rigorosa de downloads e políticas robustas de prevenção de perda de dados para mitigar esses riscos.

Pesquisadores apontam falhas de segurança preocupantes no ChatGPT

Pesquisadores da Tenable identificaram sete falhas de injeção de comandos no ChatGPT-4o, denominadas ‘HackedGPT’. Essas vulnerabilidades permitem que atacantes insiram comandos ocultos, roubem dados sensíveis e disseminem desinformação. As falhas incluem injeção indireta de comandos através de sites confiáveis, injeção de comandos com um clique, e bypass de mecanismos de segurança utilizando links maliciosos disfarçados. Embora a OpenAI tenha corrigido algumas dessas falhas em seu modelo GPT-5, várias ainda permanecem ativas, colocando milhões de usuários em risco. Os especialistas alertam que essas vulnerabilidades não apenas expõem o ChatGPT a ataques, mas também podem transformar a ferramenta em um vetor de ataque, coletando informações de conversas cotidianas. A Tenable recomenda que os fornecedores de IA reforcem suas defesas contra injeções de comandos, garantindo que os mecanismos de segurança funcionem conforme o esperado. A situação é preocupante, especialmente considerando que ferramentas como o Google Gemini também podem ser suscetíveis a problemas semelhantes, devido à integração com serviços de e-mail.

Google alerta usuários sobre novo malware PROMPTFLUX com IA

O Google Threat Intelligence Group (GTIG) identificou um novo malware chamado PROMPTFLUX, que utiliza a API Gemini para modificar seu próprio código durante a execução. Este dropper é notável por empregar uma técnica chamada ‘just-in-time AI’, que permite que o malware altere dinamicamente sua estrutura e conteúdo, dificultando a detecção por métodos tradicionais. O PROMPTFLUX se comunica com a API Gemini para obter novas variantes de código VBScript, focadas em evadir antivírus. Um módulo denominado ‘Thinking Robot’ automatiza o processo, salvando arquivos regenerados na pasta de inicialização do Windows para garantir persistência. A análise do GTIG revelou que o malware ainda está em fase de desenvolvimento e não foi amplamente implantado. No entanto, a utilização de modelos de linguagem para metamorfose em tempo de execução indica uma evolução significativa em ecossistemas de malware autônomos. Além disso, o relatório correlaciona atividades semelhantes com outros malwares habilitados por IA, como PROMPTSTEAL e PROMPTLOCK, associados a atores estatais de países como Coreia do Norte, Irã e China. O Google reforçou suas medidas de segurança para mitigar esses riscos, destacando a importância do desenvolvimento responsável de IA.

Modo IA do Google pode acessar seu Gmail para personalização

A Google anunciou planos para personalizar suas buscas por meio do novo ‘Modo IA’, que poderá acessar informações pessoais de serviços como Gmail e Drive. O vice-presidente de produtos da empresa, Robby Stein, explicou em um podcast que a ideia é que os usuários forneçam dados pessoais para que a Google possa oferecer respostas mais úteis e personalizadas. Isso inclui a possibilidade de extrair informações de e-mails e documentos para criar resumos e agendas, facilitando a organização de compromissos e viagens. Embora a funcionalidade ainda esteja em fase de testes e não tenha sido implementada, a Google já está experimentando a personalização de compras e recomendações de restaurantes. A empresa não confirmou se o acesso a dados pessoais será padrão, mas enfatizou que a participação dos usuários será voluntária. Essa abordagem levanta preocupações sobre privacidade e segurança, especialmente em relação à proteção de dados pessoais sob a Lei Geral de Proteção de Dados (LGPD) no Brasil.

Campanhas de desinformação médica utilizam deepfakes de profissionais de saúde

No Fórum Latinoamericano de Cibersegurança da ESET, a pesquisadora Martina López destacou o uso crescente de deepfakes em campanhas de desinformação médica. A tecnologia, que simula rostos e vozes de forma convincente, tem sido utilizada para criar perfis falsos de médicos, alterando suas credenciais e especializações. Essas campanhas se espalham principalmente em redes sociais menos moderadas, como TikTok e Facebook, e em grupos de aplicativos de mensagens como Telegram e Discord, visando manipular principalmente leigos e pessoas com menor nível educacional. Para combater essa desinformação, iniciativas como o Ato de Inteligência Artificial da União Europeia buscam implementar marca d’água em conteúdos gerados por IA. A especialista recomenda que os usuários verifiquem a fonte das informações e utilizem ferramentas de busca reversa para identificar conteúdos falsos. A crescente sofisticação dos deepfakes exige uma vigilância redobrada, pois a tecnologia pode impactar a percepção pública e a saúde coletiva.

Nova técnica de camuflagem explora ChatGPT para servir conteúdo falso

Pesquisadores de segurança revelaram uma nova técnica de ataque chamada “camuflagem consciente do agente”, que explora como ferramentas de busca baseadas em IA, como o ChatGPT e o navegador Atlas da OpenAI, recuperam conteúdo da web. Essa vulnerabilidade permite que atacantes sirvam versões diferentes de páginas da web para crawlers de IA, enquanto usuários humanos veem conteúdo legítimo. A técnica, que se destaca pela sua simplicidade, utiliza regras condicionais que detectam cabeçalhos de agentes de usuário de IA. Em experimentos controlados, foi demonstrado que, ao acessar um site, crawlers de IA recebiam informações fabricadas, enquanto visitantes humanos viam a versão verdadeira. Isso levanta preocupações sobre a falta de validação de proveniência nos sistemas de recuperação de informações de IA, que tratam o conteúdo como verdade absoluta. As implicações vão além de ataques à reputação, afetando também processos de contratação automatizados. Para mitigar esses riscos, recomenda-se a implementação de defesas em múltiplas camadas, incluindo a verificação criptográfica da autenticidade das informações e protocolos de validação para crawlers. A pesquisa destaca a necessidade urgente de monitoramento contínuo e validação de saídas geradas por IA, especialmente em decisões críticas como contratações e conformidade.

Extensões falsas de IA podem roubar senhas enquanto você conversa

Pesquisadores da SquareX alertam sobre um novo vetor de ataque que utiliza extensões maliciosas para criar barras laterais falsas em navegadores. Essas barras laterais imitam assistentes de IA legítimos e podem capturar informações sensíveis, como senhas e tokens de autenticação, sem que o usuário perceba. O ataque se dá através da injeção de JavaScript nas páginas da web, permitindo que a interface falsa sobreponha a verdadeira, dificultando a detecção. Os especialistas destacam que muitas extensões solicitam permissões amplas, como acesso a hosts e armazenamento, o que torna a análise de permissões uma estratégia de detecção menos eficaz. A crescente popularidade de navegadores com assistentes de IA pode aumentar a superfície de ataque, tornando a segurança mais desafiadora. Os usuários são aconselhados a tratar esses assistentes como recursos experimentais e evitar o manuseio de dados sensíveis. As equipes de segurança devem implementar controles mais rigorosos sobre extensões e monitorar atividades anômalas para mitigar riscos. O artigo enfatiza a necessidade de verificações de integridade da interface e uma melhor orientação sobre o uso aceitável dessas ferramentas.

Previsões de Cibersegurança A Identidade como Ponto Crítico em 2026

O artigo da BeyondTrust destaca que em 2026, as ameaças cibernéticas estarão fortemente ligadas à gestão de identidades. A primeira previsão é a ascensão da IA agente como vetor de ataque, onde ferramentas de IA podem ser manipuladas para executar ações maliciosas devido a permissões inadequadas. A segunda previsão é o aumento do ‘account poisoning’, onde fraudadores inserem pagadores e cobradores fraudulentos em contas financeiras, utilizando automação para explorar falhas nos sistemas. Por último, o artigo alerta para a presença de ‘identidades fantasmas’ em sistemas de gerenciamento de identidade (IAM), que podem resultar em brechas de segurança não detectadas. As organizações devem adotar uma postura de segurança centrada na identidade, aplicando princípios de menor privilégio e zero trust. Além disso, o artigo menciona a obsolescência das VPNs tradicionais e o surgimento do ‘AI veganism’, um movimento contra o uso de IA por questões éticas. A mensagem central é que a segurança deve ser reavaliada à luz dessas novas ameaças, com foco na gestão de identidades.

Hackers envenenam IA como ChatGPT com facilidade

O aumento do uso de Inteligência Artificial (IA), especialmente em chatbots como ChatGPT, Gemini e Claude, trouxe à tona novas vulnerabilidades. Pesquisadores do Instituto Alan Turing e da Anthropic identificaram uma técnica chamada ’envenenamento de IA’, onde apenas 250 arquivos maliciosos podem comprometer o aprendizado de um modelo de dados. Isso resulta em chatbots que aprendem informações erradas, levando a respostas incorretas ou até maliciosas. Existem dois tipos principais de envenenamento: o direto, que altera respostas específicas, e o indireto, que prejudica a performance geral. Um exemplo de ataque direto é o backdoor, onde o modelo é manipulado para responder de forma errada ao detectar um código específico. Já o ataque indireto envolve a criação de informações falsas que o modelo replica como verdade. Em março de 2023, a OpenAI suspendeu temporariamente o ChatGPT devido a um bug que expôs dados de usuários. Além disso, artistas têm utilizado dados envenenados como uma forma de proteger suas obras contra sistemas de IA que as utilizam sem autorização. Essa situação levanta preocupações sobre a segurança e a integridade dos sistemas de IA, especialmente em um cenário onde a desinformação pode ter consequências graves.

Falha de Injeção de Argumentos em Agentes de IA Permite Execução Remota de Código

Pesquisas de segurança da Trail of Bits revelam que agentes de inteligência artificial modernos estão vulneráveis a ataques de injeção de argumentos, permitindo a execução remota de código (RCE). Essa vulnerabilidade explora uma falha arquitetônica fundamental na forma como esses agentes lidam com a execução de comandos do sistema. Ao utilizar utilitários de linha de comando como find, grep e git, os sistemas se tornam mais rápidos, mas também expõem uma superfície de ataque perigosa quando a entrada do usuário influencia os parâmetros dos comandos.

Automação impulsionada por IA na descoberta de vulnerabilidades e geração de malware

O relatório Digital Defense Report 2025 da Microsoft revela que a motivação financeira continua a dominar o cenário global de ameaças cibernéticas, com 52% dos ataques analisados relacionados a extorsão e ransomware. O documento, assinado pelo Chief Information Security Officer da Microsoft, Igor Tsyganskiy, destaca que 80% dos incidentes investigados estavam ligados ao roubo de dados, evidenciando que os cibercriminosos priorizam o lucro em vez da espionagem. A pesquisa também enfatiza o uso crescente de inteligência artificial (IA) em ciberataques, permitindo que até mesmo atores de baixo nível escalem operações maliciosas. A Microsoft processa mais de 100 trilhões de sinais de segurança diariamente, bloqueando cerca de 4,5 milhões de tentativas de malware e analisando 5 bilhões de e-mails para detectar phishing. A automação e a IA mudaram drasticamente a dinâmica dos ataques, com criminosos utilizando modelos de aprendizado de máquina para descobrir vulnerabilidades rapidamente e gerar malware polimórfico. O relatório também menciona o aumento das ameaças de atores estatais, especialmente da China, Irã, Rússia e Coreia do Norte, que estão explorando vulnerabilidades recém-divulgadas com rapidez. A Microsoft recomenda que as organizações integrem a segurança em suas estratégias de negócios e adotem modelos de defesa impulsionados por IA para enfrentar essas ameaças.

Google lança IA CodeMender para corrigir código inseguro

O Google apresentou o CodeMender, um agente autônomo impulsionado por inteligência artificial, que tem como objetivo detectar, corrigir e proteger proativamente o código de software. Utilizando modelos de aprendizado profundo e análise rigorosa de programas, o CodeMender não apenas responde a novas vulnerabilidades, mas também reescreve códigos existentes para eliminar falhas de segurança. Nos últimos seis meses, a equipe de pesquisa integrou 72 correções de segurança em projetos de código aberto, abrangendo bases de código com mais de 4,5 milhões de linhas. O modelo Gemini Deep Think, que fundamenta o CodeMender, analisa a semântica do código e o fluxo de controle para identificar as causas raízes das vulnerabilidades. O agente gera correções que tratam problemas como gerenciamento inadequado de memória e estouros de buffer, garantindo que apenas correções de alta qualidade sejam submetidas a revisores humanos. Além disso, o CodeMender aplica anotações de segurança proativas, como -fbounds-safety, que previnem estouros de buffer em bibliotecas inteiras. Embora os resultados iniciais sejam promissores, o Google está adotando uma abordagem cautelosa, revisando todas as correções geradas antes de sua implementação em projetos críticos de código aberto.

CodeMender da Google DeepMind usa IA para detectar bugs e criar patches de segurança

A Google DeepMind anunciou o CodeMender, uma ferramenta de inteligência artificial que identifica e corrige vulnerabilidades em softwares antes que possam ser exploradas por hackers. O CodeMender gera patches de segurança para projetos de código aberto, que são revisados por pesquisadores humanos antes de serem aplicados. A ferramenta utiliza uma combinação de técnicas, como fuzzing, análise estática e testes diferenciais, para descobrir as causas raízes dos bugs e evitar regressões. Nos últimos seis meses, o sistema já implementou 72 correções de segurança em projetos de grande porte, incluindo bibliotecas com milhões de linhas de código. A DeepMind enfatiza que o CodeMender não visa substituir os desenvolvedores, mas sim atuar como um agente auxiliar, aumentando a capacidade de detecção de vulnerabilidades. A empresa também reconhece o uso crescente de IA por atacantes e a necessidade de ferramentas equivalentes para defensores. A DeepMind planeja expandir os testes com mantenedores de código aberto e, após confirmar a confiabilidade do CodeMender, pretende disponibilizá-lo para um público mais amplo.

Zero Trust uma solução comprovada para os novos desafios de segurança da IA

À medida que as organizações buscam aproveitar o potencial produtivo dos modelos de linguagem de grande escala (LLMs) e da IA autônoma, surge uma preocupação com a segurança: como garantir que essas ferramentas poderosas não causem vazamentos de dados ou ações maliciosas? O artigo destaca que a arquitetura de Zero Trust, que se baseia na premissa de ’nunca confiar, sempre verificar’, é essencial para proteger interações complexas entre usuários, agentes de IA e dados sensíveis. O uso de LLMs pode multiplicar os riscos de exposição, pois cada interação pode resultar em vazamentos em larga escala. Portanto, é crucial implementar controles dinâmicos e baseados em identidade, garantindo que cada agente de IA tenha suas permissões rigorosamente gerenciadas. O Zero Trust deve ser aplicado em fluxos de trabalho de IA, vinculando agentes a identidades verificadas e utilizando controles contextuais para limitar o acesso. A adoção desse modelo não apenas protege os dados, mas também permite que as organizações inovem com segurança, atendendo às crescentes exigências regulatórias em torno do uso da IA.

Microsoft impede campanha de phishing com código gerado por IA

Recentemente, a Microsoft conseguiu bloquear uma campanha de phishing que utilizava código gerado por inteligência artificial (IA) para ocultar um payload malicioso dentro de um arquivo SVG disfarçado como PDF. Os atacantes enviaram e-mails de contas de pequenas empresas comprometidas, utilizando campos BCC para esconder os alvos reais. O arquivo SVG continha elementos ocultos que simulavam um painel de negócios, enquanto um script transformava palavras relacionadas a negócios em código, levando os usuários a uma página de login falsa após um redirecionamento para um CAPTCHA. A análise do arquivo pelo Microsoft Security Copilot revelou características típicas de código gerado por IA, como identificadores longos e comentários genéricos, o que indicou que o código era mais polido do que prático. Embora a campanha tenha sido limitada e facilmente bloqueada, ela destaca como os atacantes estão cada vez mais utilizando IA para criar iscas convincentes e payloads complexos. A Microsoft enfatiza a importância de ferramentas de IA na detecção e resposta a ameaças em larga escala, tanto para defensores quanto para atacantes.

Campanha de phishing utiliza IA para enganar empresas nos EUA

Um novo ataque de phishing, identificado pela Microsoft, está direcionado a organizações baseadas nos Estados Unidos e utiliza modelos de linguagem avançados para ocultar suas intenções maliciosas. Detectado em 28 de agosto de 2025, o ataque se aproveita de contas de e-mail corporativas comprometidas para enviar mensagens que se disfarçam como notificações de compartilhamento de arquivos. Os atacantes utilizam arquivos SVG, que permitem a inclusão de JavaScript e conteúdo dinâmico, para criar iscas mais convincentes. Os e-mails são enviados com endereços de remetente e destinatário iguais, ocultando os verdadeiros alvos no campo BCC, o que dificulta a detecção inicial. O conteúdo do SVG é estruturado para parecer um painel de análise de negócios, enquanto a funcionalidade maliciosa é disfarçada por uma sequência de termos corporativos. A Microsoft alerta que, embora esta campanha tenha sido bloqueada, técnicas semelhantes estão sendo cada vez mais adotadas por cibercriminosos. Além disso, outras campanhas de phishing têm explorado temas relacionados à Administração da Seguridade Social dos EUA e à violação de direitos autorais, utilizando métodos inovadores para distribuir malware.