Ia

Senhas geradas por IA podem ser quebradas em horas, alertam pesquisadores

Pesquisadores alertam que senhas geradas por modelos de linguagem artificial (LLMs), como ChatGPT e Claude, podem parecer seguras, mas possuem padrões previsíveis que as tornam vulneráveis a ataques. Um estudo da Irregular analisou 50 senhas de 16 caracteres geradas por esses sistemas e descobriu que muitas eram duplicadas e seguiam estruturas semelhantes. Embora essas senhas tenham passado em testes de força comuns, a análise revelou que sua entropia variava entre 20 e 27 bits, enquanto uma senha verdadeiramente aleatória teria entre 98 e 120 bits. Essa diferença significa que senhas geradas por IA podem ser quebradas em questão de horas, mesmo em computadores antigos. Os pesquisadores alertam que ferramentas de avaliação de senhas não consideram padrões estatísticos ocultos, o que pode levar à falsa sensação de segurança. Além disso, a recomendação é que os usuários utilizem geradores de senhas baseados em aleatoriedade criptográfica e gerenciadores de senhas, em vez de confiar nas sugestões de LLMs, que não são adequadas para autenticação segura.

Meta se une à Nvidia para criar infraestrutura de IA em larga escala

A Meta anunciou uma parceria de vários anos com a Nvidia para desenvolver uma infraestrutura de inteligência artificial (IA) em larga escala, capaz de suportar bilhões de usuários globalmente. Esta colaboração envolve a implementação de milhões de GPUs e CPUs baseadas em Arm, visando otimizar a capacidade de processamento e eficiência operacional. A nova arquitetura unificada abrangerá centros de dados locais e implantações na nuvem da Nvidia, simplificando as operações e oferecendo recursos de computação de alto desempenho para treinamento e inferência de IA.

Campanha de hackers usa IA para comprometer firewalls FortiGate

A Amazon alertou sobre uma campanha de hackers de língua russa que utilizou serviços de IA generativa para comprometer mais de 600 firewalls FortiGate em 55 países em um período de cinco semanas, entre 11 de janeiro e 18 de fevereiro de 2026. O relatório de CJ Moses, CISO da Amazon Integrated Security, revela que os invasores não exploraram falhas conhecidas, mas sim atacaram interfaces de gerenciamento expostas e utilizaram credenciais fracas sem proteção de autenticação multifator (MFA). Após a invasão, os hackers extraíram configurações críticas dos dispositivos, incluindo credenciais de usuários e políticas de firewall, utilizando ferramentas automatizadas que demonstraram características típicas de código gerado por IA. A campanha também visou servidores de backup da Veeam, utilizando scripts PowerShell personalizados para extrair credenciais. Apesar de os invasores terem um nível de habilidade considerado baixo a médio, o uso de IA potencializou suas capacidades, permitindo a execução de ataques que normalmente estariam além de suas habilidades. A Amazon recomenda que administradores de FortiGate não exponham interfaces de gerenciamento à internet e implementem MFA para proteger suas redes.

Ataque à cadeia de suprimentos compromete assistente de codificação Cline CLI

Em um recente ataque à cadeia de suprimentos, o assistente de codificação Cline CLI, que utiliza inteligência artificial, foi atualizado para instalar o OpenClaw, um agente autônomo de IA. O incidente ocorreu em 17 de fevereiro de 2026, quando um token de publicação npm comprometido foi utilizado para publicar a versão 2.3.0 do Cline CLI, que continha um script de pós-instalação não autorizado. Embora a instalação do OpenClaw não tenha sido considerada maliciosa, a atualização afetou todos os usuários que instalaram essa versão durante uma janela de oito horas, resultando em cerca de 4.000 downloads. Para mitigar o problema, os mantenedores do Cline lançaram a versão 2.4.0 e revogaram o token comprometido. O ataque foi facilitado por uma falha de configuração que permitiu a execução de código arbitrário através de uma injeção de prompt, conhecida como Clinejection, que poderia ter consequências graves se os tokens de publicação fossem obtidos por um ator malicioso. O impacto geral é considerado baixo, mas o evento destaca a necessidade de práticas de segurança mais rigorosas para publicações de pacotes.

Malware Android usa IA do Google para persistência e execução

Pesquisadores de cibersegurança identificaram o PromptSpy, o primeiro malware para Android que utiliza o chatbot de inteligência artificial Gemini, da Google, para executar suas funções maliciosas e garantir sua persistência no dispositivo. O PromptSpy é capaz de capturar dados da tela de bloqueio, bloquear tentativas de desinstalação, coletar informações do dispositivo, tirar capturas de tela e gravar a atividade da tela em vídeo. O malware se comunica com um servidor de comando e controle para receber instruções sobre como interagir com a interface do usuário, utilizando a IA para adaptar suas ações a diferentes dispositivos e versões do sistema operacional. O principal objetivo do PromptSpy é implantar um módulo VNC que permite acesso remoto ao dispositivo da vítima. A análise sugere que a campanha é motivada financeiramente e direcionada a usuários na Argentina, com indícios de que o malware foi desenvolvido em um ambiente de língua chinesa. O PromptSpy é distribuído por um site dedicado e não está disponível no Google Play, o que aumenta o risco de infecção para os usuários desavisados.

IA ajuda hackers a criar malware mais rápido e complexo

A ascensão da Inteligência Artificial Generativa (GenAI) está transformando o cenário da cibersegurança, permitindo que hackers desenvolvam malware de forma mais rápida e complexa. Um relatório da Palo Alto, intitulado ‘Unit 42 Global Incident Response Report’, revela que o tempo necessário para exfiltração de dados caiu de cinco horas para apenas 72 minutos, um aumento significativo na eficiência dos ataques. O navegador continua sendo o principal alvo, com 48% dos incidentes ocorrendo nesse ambiente, mas a complexidade dos ataques está crescendo, com 87% das intrusões abrangendo múltiplas superfícies de ataque. Além disso, fraquezas de identidade e ataques à cadeia de suprimentos estão se tornando comuns, com 65% dos acessos iniciais resultantes de engenharia social. Os ataques a aplicações SaaS aumentaram quase quatro vezes desde 2022, representando 23% de todos os ataques. Os operadores de ransomware estão mudando seu foco de criptografia para a extração de dados, o que torna a detecção mais difícil para os defensores. Essa evolução no uso da IA pelos atacantes representa um desafio crescente para a comunidade de cibersegurança, exigindo uma resposta mais robusta e ágil das organizações.

Assistentes de IA podem ser usados em ataques de comando e controle

Pesquisadores da Check Point, uma empresa de cibersegurança, descobriram que assistentes de IA como Grok e Microsoft Copilot podem ser explorados para intermediar atividades de comando e controle (C2) em ataques cibernéticos. A técnica envolve o uso de uma interface web de IA para relatar comunicações entre um servidor C2 e a máquina alvo, permitindo que atacantes enviem comandos e recuperem dados roubados sem serem detectados. O malware se comunica com o assistente de IA através do componente WebView2 do Windows 11, que pode ser embutido no próprio malware caso não esteja presente no sistema da vítima. A pesquisa demonstrou que essa abordagem cria um canal de comunicação bidirecional, confiável para ferramentas de segurança da internet, dificultando a detecção. O uso de serviços de IA para C2 elimina a necessidade de contas ou chaves de API, tornando a rastreabilidade e a aplicação de bloqueios mais complicadas. Embora existam salvaguardas para bloquear trocas maliciosas, os pesquisadores afirmam que essas podem ser facilmente contornadas através da criptografia de dados. A Check Point alertou a Microsoft e a xAI sobre suas descobertas, mas ainda não houve resposta sobre a vulnerabilidade do Copilot.

Automação de Fluxos de Trabalho em Cibersegurança Oportunidades e Desafios

As equipes de segurança, TI e engenharia enfrentam uma pressão constante para acelerar resultados e maximizar o uso de inteligência artificial (IA) e automação. Um estudo revela que 88% das provas de conceito de IA não chegam à produção, apesar de 70% dos trabalhadores desejarem liberar tempo para atividades de maior valor. O artigo apresenta três casos de uso que demonstram como fluxos de trabalho inteligentes podem transformar a automação em processos eficazes.

Cibersegurança em 2026 Desafios e Estratégias em um Mundo Instável

Em 2026, o cenário de cibersegurança se caracteriza por uma instabilidade contínua, onde ameaças impulsionadas por inteligência artificial (IA) se adaptam em tempo real. As organizações precisam não apenas reagir a regulamentações, mas integrá-las como parâmetros permanentes em suas arquiteturas de segurança. A pressão geopolítica também influencia o ambiente cibernético, exigindo que as estratégias de segurança considerem riscos de cadeia de suprimentos e atividades cibernéticas alinhadas a estados.

A abordagem tradicional de prever ataques está se tornando obsoleta; agora, a prioridade é moldar as condições que dificultam o sucesso dos atacantes. Tecnologias como Defesa de Alvo em Movimento Automatizada (AMTD) e Gestão Contínua de Exposição a Ameaças (CTEM) são essenciais para encurtar a janela de oportunidade dos invasores. Além disso, a IA é cada vez mais integrada nas ferramentas de segurança, melhorando a eficiência na detecção e resposta a incidentes.

Agentes de IA OpenClaw são alvo de malware infostealer pela primeira vez

Pesquisadores de segurança da Hudson Rock relataram o primeiro ataque de malware infostealer direcionado ao OpenClaw, um assistente de IA de código aberto. O ataque resultou na exfiltração de arquivos de configuração que contêm segredos sensíveis, como chaves de API e tokens de autenticação, que podem permitir acesso a aplicativos conectados, como Telegram e calendários. O OpenClaw, que permite a automação de tarefas, exige que os usuários forneçam essas informações para funcionar corretamente. A Hudson Rock observou que os hackers não estavam atacando diretamente o OpenClaw, mas sim utilizando um infostealer para coletar o máximo de arquivos sensíveis possível do sistema comprometido. Os pesquisadores alertam que, à medida que o OpenClaw se torna mais popular, a probabilidade de ataques direcionados a esses dados aumentará, com a possibilidade de que desenvolvedores de malware criem módulos específicos para decifrar e extrair informações de assistentes de IA. Essa evolução no comportamento dos infostealers representa um risco crescente para fluxos de trabalho profissionais que dependem de assistentes de IA.

Roubo de informações de agentes de IA marca nova fase em cibersegurança

Pesquisadores em cibersegurança identificaram um caso de infecção por malware que conseguiu exfiltrar dados de configuração do ambiente OpenClaw, uma plataforma de inteligência artificial. Este incidente representa uma evolução significativa no comportamento de infostealers, que agora estão focando na coleta de identidades e informações sensíveis de agentes de IA, em vez de apenas credenciais de navegadores. O malware, possivelmente uma variante do Vidar, utilizou uma rotina de captura de arquivos para acessar dados críticos, incluindo tokens de autenticação e diretrizes operacionais dos agentes. A captura do token de autenticação pode permitir que atacantes se conectem remotamente ao OpenClaw da vítima. Além disso, a plataforma OpenClaw enfrenta problemas de segurança, como a exposição de instâncias que podem levar a riscos de execução remota de código (RCE). A crescente popularidade do OpenClaw, que já conta com mais de 200 mil estrelas no GitHub, torna-o um alvo atraente para ataques de cadeia de suprimentos. A situação é agravada por campanhas de habilidades maliciosas que burlam a detecção de malware, destacando a necessidade de vigilância constante e medidas de segurança robustas.

Extensões maliciosas do Chrome se disfarçam de assistentes de IA

Um conjunto de 30 extensões maliciosas do Chrome, que foram instaladas por mais de 300.000 usuários, se disfarça como assistentes de IA para roubar credenciais, conteúdo de e-mails e informações de navegação. A campanha, chamada AiFrame, foi descoberta pela plataforma de segurança de navegadores LayerX, que identificou que todas as extensões analisadas compartilham a mesma infraestrutura maliciosa, comunicando-se com o domínio tapnetic[.]pro. A extensão mais popular da campanha, chamada Gemini AI Sidebar, tinha 80.000 usuários, mas já não está mais disponível na Chrome Web Store. Outras extensões, como AI Sidebar e AI Assistant, ainda estão ativas e possuem dezenas de milhares de usuários. As extensões não implementam funcionalidades de IA localmente; em vez disso, carregam conteúdo de um domínio remoto, o que permite que os operadores alterem a lógica das extensões sem necessidade de atualização. Além disso, um subconjunto de 15 extensões visa especificamente dados do Gmail, extraindo conteúdo de e-mails e até mesmo rascunhos. LayerX alerta que, ao invocar funcionalidades relacionadas ao Gmail, o conteúdo extraído é enviado para servidores controlados pelos operadores das extensões. A pesquisa destaca a necessidade de os usuários verificarem suas contas e redefinirem senhas se forem afetados.

Hackers apoiados por Estados usam IA do Google para ataques cibernéticos

Hackers apoiados por estados, incluindo grupos da China, Irã, Coreia do Norte e Rússia, estão utilizando o modelo de IA Gemini do Google para facilitar todas as etapas de ataques cibernéticos, desde a fase de reconhecimento até ações pós-comprometimento. O relatório do Google Threat Intelligence Group (GTIG) revela que esses atores maliciosos empregam a IA para criar perfis de alvos, gerar iscas de phishing, traduzir textos, realizar testes de vulnerabilidades e até desenvolver malware. Por exemplo, um ator da China simulou um cenário para automatizar a análise de vulnerabilidades, enquanto um grupo iraniano usou a IA para acelerar a criação de ferramentas maliciosas personalizadas. Além disso, a IA está sendo utilizada em campanhas de engenharia social, como as campanhas ClickFix, que distribuem malware para roubo de informações. O relatório também destaca tentativas de extração e destilação do modelo de IA, o que representa um risco significativo para a propriedade intelectual e o modelo de negócios de IA como serviço. O Google está tomando medidas para mitigar esses abusos, mas a ameaça continua crescente, especialmente com o aumento do interesse de cibercriminosos por ferramentas de IA.

Ameaças cibernéticas modernas abuso de confiança e novos vetores de ataque

As ameaças cibernéticas atuais não se limitam mais a malware ou exploits, mas estão se infiltrando nas ferramentas e plataformas que as organizações utilizam diariamente. Com a crescente interconexão de aplicativos de IA, nuvem e sistemas de comunicação, os atacantes estão explorando esses mesmos caminhos. Um padrão alarmante observado é o abuso de confiança em atualizações, marketplaces e aplicativos considerados seguros. A parceria entre a OpenClaw e o VirusTotal, por exemplo, visa melhorar a segurança de um ecossistema de IA, após a descoberta de habilidades maliciosas em sua plataforma. Além disso, um alerta conjunto das agências de segurança da Alemanha destaca campanhas de phishing direcionadas a alvos de alto nível, utilizando o aplicativo Signal. Outro ponto crítico é a botnet AISURU, que foi responsável por um ataque DDoS recorde de 31,4 Tbps. A vulnerabilidade no assistente de IA da Docker, chamada DockerDash, permite a execução remota de código, evidenciando a necessidade de um modelo de segurança baseado em Zero Trust. A Microsoft também desenvolveu um scanner para detectar backdoors em modelos de IA, ressaltando a importância de monitorar e mitigar riscos em ambientes de IA. Esses eventos demonstram que a segurança cibernética precisa evoluir para enfrentar ameaças cada vez mais sofisticadas.

A crescente ameaça de ataques no navegador e a segurança empresarial

O artigo destaca que, atualmente, a maior parte do trabalho nas empresas ocorre no navegador, com aplicações SaaS e ferramentas de IA se tornando interfaces primárias para acesso a dados. No entanto, a segurança cibernética ainda não integra adequadamente o navegador em suas arquiteturas, resultando em uma lacuna significativa na detecção de ameaças. Os ataques baseados em navegador, como engenharia social, extensões maliciosas e ataques Man-in-the-Browser, estão se tornando comuns e difíceis de rastrear, pois muitas vezes não deixam evidências tradicionais. Ferramentas de segurança, como EDR e SASE, não conseguem monitorar interações dentro do navegador, o que limita a eficácia na prevenção e resposta a incidentes. A pesquisa da Keep Aware revela que, embora existam políticas de segurança, falta visibilidade sobre o comportamento real dos usuários. Com o aumento do uso de ferramentas de IA, essa lacuna se amplia, tornando a detecção e prevenção de riscos ainda mais desafiadoras. O artigo conclui que a observabilidade das interações no navegador é crucial para melhorar a segurança e a resposta a incidentes, permitindo que as equipes de segurança ajustem suas políticas com base em dados reais.

Brasil é um dos países com mais servidores de IA expostos a hackers

Uma pesquisa realizada pela SentinelLABS e Censys, da SentinelOne, revelou que o Brasil é um dos países mais afetados pela exposição de servidores de Inteligência Artificial (IA) a hackers. A análise abrangeu 175.000 hosts Ollama em 130 países, com a maioria das instâncias expostas localizadas na China. No entanto, o Brasil se destaca entre os países com maior número de servidores vulneráveis, ao lado de nações como Alemanha, Coreia do Sul e Estados Unidos. A Ollama, um framework de código aberto, permite que usuários gerenciem modelos de linguagem localmente, mas a configuração inadequada pode expor esses servidores à internet, aumentando o risco de ataques. Aproximadamente 48% dos hosts analisados possuem capacidades que permitem a execução de código e interação com sistemas externos, o que pode ser explorado por hackers para realizar atividades maliciosas, como spam em massa e campanhas de desinformação. A pesquisa também identificou a campanha Operation Bizarre Bazaar, que monetiza o acesso a essa infraestrutura de IA clandestina. Para mitigar esses riscos, é essencial que as organizações tratem os LLMs com as mesmas medidas de segurança aplicadas a qualquer infraestrutura acessível externamente.

Investigação no Reino Unido sobre uso indevido de dados pela X

A Autoridade de Proteção de Dados do Reino Unido (ICO) iniciou uma investigação formal contra a X e sua subsidiária irlandesa, xAI, após relatos de que o assistente de IA Grok foi utilizado para gerar imagens sexuais não consensuais. A ICO busca determinar se a X Internet Unlimited Company (XIUC) e a X.AI LLC (X.AI) processaram dados pessoais de forma legal e se implementaram salvaguardas adequadas para evitar a criação de imagens prejudiciais. O órgão destacou que a perda de controle sobre dados pessoais pode causar danos imediatos e significativos, especialmente quando crianças estão envolvidas. Além disso, a investigação coincide com ações de autoridades francesas que estão apurando se o Grok gerou material de abuso sexual infantil e conteúdo de negação do Holocausto. A Comissão Europeia também lançou uma investigação para avaliar se a X cumpriu as normas do Digital Services Act antes de implementar o Grok. A ICO pode impor multas de até £17,5 milhões ou 4% do faturamento global da empresa, o que ressalta a gravidade da situação e a necessidade de conformidade com a legislação de proteção de dados.

Gestão de Identidade para Agentes de IA Um Novo Desafio de Segurança

O artigo de Ido Shlomo, CTO e cofundador da Token Security, destaca a crescente presença de agentes de IA autônomos nas empresas e os riscos associados à sua gestão de identidade. Tradicionalmente, as organizações gerenciavam identidades de humanos e máquinas, mas os agentes de IA não se encaixam perfeitamente em nenhuma dessas categorias. Eles são adaptáveis, operam em alta velocidade e podem realizar ações sem supervisão humana, o que cria lacunas significativas na governança de identidade. A falta de visibilidade sobre esses agentes leva a um crescimento descontrolado de identidades, tornando-as alvos fáceis para atacantes. O artigo sugere que a gestão do ciclo de vida das identidades dos agentes de IA deve ser contínua e em tempo real, garantindo visibilidade, responsabilidade e o princípio do menor privilégio. Além disso, enfatiza a importância de descobrir e monitorar esses agentes para evitar riscos de segurança. A gestão eficaz das identidades dos agentes de IA é apresentada como uma solução para mitigar riscos sem comprometer a inovação nas organizações.

Mais de 230 pacotes maliciosos afetam assistente de IA OpenClaw

Recentemente, mais de 230 pacotes maliciosos foram publicados no registro oficial do assistente de IA OpenClaw, anteriormente conhecido como Moltbot e ClawdBot. Esses pacotes, chamados de ‘skills’, se disfarçam como ferramentas legítimas, mas têm como objetivo injetar malware que rouba dados sensíveis, como chaves de API, credenciais de SSH e senhas de navegadores. O projeto, que é um assistente de IA de código aberto projetado para rodar localmente, apresenta riscos de segurança se não for configurado corretamente. Pesquisadores de segurança alertaram que muitas interfaces administrativas do OpenClaw estão mal configuradas e expostas na web pública. A infecção ocorre quando os usuários seguem instruções enganosas contidas na documentação dos pacotes, que incluem um mecanismo de entrega de malware disfarçado de uma ferramenta chamada ‘AuthTool’. O malware, identificado como uma variante do NovaStealer, é capaz de contornar proteções do sistema e roubar informações críticas. A situação é agravada por uma campanha em larga escala que visa usuários do OpenClaw, com a necessidade urgente de os usuários verificarem a segurança dos pacotes antes da instalação.

Infraestrutura de IA exposta representa risco crescente à segurança

Uma investigação conjunta da SentinelOne e Censys revelou que a implementação de inteligência artificial (IA) de código aberto criou uma vasta camada de infraestrutura de computação de IA não gerenciada, com 175.000 hosts únicos do Ollama em 130 países. A maioria das exposições está na China, seguida por países como EUA, Alemanha e Brasil. Esses sistemas operam fora dos controles de segurança padrão, apresentando riscos significativos. Quase 50% dos hosts observados possuem capacidades de chamada de ferramentas, permitindo a execução de código e acesso a APIs, o que altera o modelo de ameaça. A falta de autenticação e a exposição à rede aumentam o risco de LLMjacking, onde recursos de infraestrutura de IA são explorados por agentes maliciosos. A operação chamada ‘Operation Bizarre Bazaar’ tem como alvo endpoints de serviços LLM expostos, comercializando o acesso a essas infraestruturas. A natureza descentralizada do ecossistema Ollama complica a governança e abre novas avenidas para injeções de prompt e tráfego malicioso. Para os defensores, é crucial tratar os LLMs com os mesmos controles de autenticação e monitoramento aplicados a outras infraestruturas acessíveis externamente.

Campanha maliciosa ataca serviços de IA expostos para acesso não autorizado

Uma campanha maliciosa, chamada ‘Bizarre Bazaar’, está visando endpoints de Modelos de Linguagem de Grande Escala (LLMs) expostos, com o objetivo de comercializar acesso não autorizado à infraestrutura de IA. Pesquisadores da Pillar Security registraram mais de 35.000 sessões de ataque em 40 dias, revelando uma operação de cibercrime em larga escala. Os atacantes exploram configurações inadequadas, como endpoints não autenticados, para roubar recursos computacionais para mineração de criptomoedas, revender acesso a APIs em mercados darknet e exfiltrar dados de conversas. Os vetores de ataque comuns incluem configurações de LLM auto-hospedadas e APIs de IA expostas. A operação é atribuída a um ator específico que utiliza os pseudônimos “Hecker”, “Sakuya” e “LiveGamer101”. Além disso, a Pillar Security está monitorando uma campanha separada focada em reconhecimento de endpoints de Model Context Protocol (MCP), que pode oferecer oportunidades adicionais de movimento lateral. A campanha ‘Bizarre Bazaar’ continua ativa, e o serviço associado, SilverInc, ainda está operacional.

Grupo de hackers norte-coreano usa malware PowerShell gerado por IA

O grupo de hackers norte-coreano Konni (também conhecido como Opal Sleet ou TA406) está utilizando malware PowerShell gerado por inteligência artificial para atacar desenvolvedores e engenheiros no setor de blockchain. Ativo desde 2014, o grupo é associado a atividades de APT37 e Kimsuky, e tem como alvo organizações na Coreia do Sul, Rússia, Ucrânia e diversos países da Europa. A mais recente campanha do grupo foca na região da Ásia-Pacífico, com amostras de malware enviadas de países como Japão, Austrália e Índia.

Curl encerra programa de recompensas por bugs devido a relatos gerados por IA

O fundador do curl, Daniel Stenberg, anunciou que o projeto não participará mais do programa de recompensas por bugs da HackerOne, devido ao aumento de relatos de vulnerabilidades de baixa qualidade, muitos dos quais foram gerados por inteligência artificial. Essa decisão, que entra em vigor em 1º de fevereiro de 2026, foi motivada pela pressão sobre a pequena equipe do curl, que enfrentou um aumento significativo de relatos inválidos, afetando sua saúde mental. O curl, uma ferramenta de linha de comando amplamente utilizada para transferência de dados, tinha um programa de recompensas ativo desde 2019, mas a qualidade dos relatos se deteriorou, com Stenberg relatando que, em uma semana, foram recebidos sete relatos, todos sem identificação de vulnerabilidades reais. A partir de agora, os relatos serão aceitos apenas através do GitHub, e aqueles que enviarem informações irrelevantes poderão ser banidos e expostos publicamente. Essa mudança reflete um desafio crescente na cibersegurança, onde a automação e a IA estão impactando a qualidade das informações recebidas por projetos de segurança.

A vulnerabilidade da codificação assistida por IA em segurança cibernética

O uso de modelos de IA para auxiliar na escrita de código, conhecido como “vibe coding”, tem se tornado comum entre equipes de desenvolvimento, oferecendo economia de tempo, mas também introduzindo riscos de segurança. Um estudo de caso da Intruder ilustra como um código gerado por IA pode criar vulnerabilidades. Ao desenvolver um honeypot para coletar tentativas de exploração, a equipe utilizou IA para criar um protótipo. Após a implementação, logs mostraram que cabeçalhos de IP fornecidos pelo cliente estavam sendo tratados como IPs de visitantes, permitindo que atacantes injetassem cargas úteis. Essa falha, que poderia ter consequências graves, foi detectada apenas após uma revisão manual, evidenciando a limitação da análise estática de código. A experiência ressalta a necessidade de cautela ao confiar em código gerado por IA, especialmente por equipes sem formação em segurança. Com o aumento das ameaças cibernéticas, é crucial que as organizações revisitem seus processos de revisão de código e detecção de vulnerabilidades para evitar que problemas semelhantes passem despercebidos.

Falha no Google Gemini permite roubo de dados via Calendário

Pesquisadores da Miggo Security identificaram uma vulnerabilidade no Google Gemini que possibilita a injeção indireta de comandos maliciosos, utilizando o Calendário Google como vetor de ataque. Os criminosos criam um evento de calendário e, na descrição, inserem um prompt em linguagem natural que manipula a inteligência artificial do Gemini. Quando a vítima interage com o chatbot, fazendo perguntas sobre sua agenda, o sistema pode acabar extraindo dados privados e os repassando aos atacantes sem que o usuário perceba. Embora a Google já tenha corrigido a falha, o incidente ressalta os riscos associados ao uso de agentes de IA na automação de tarefas, especialmente quando lidam com informações sensíveis. Pesquisadores alertam que chatbots ainda não são totalmente seguros para gerenciar dados pessoais sem diretrizes rigorosas. Este caso destaca a necessidade de vigilância constante e de práticas de segurança robustas ao utilizar tecnologias de IA em ambientes corporativos.

Ataque ao Google Gemini vaza dados privados do Calendário

Pesquisadores da Miggo Security descobriram uma vulnerabilidade no assistente de IA Google Gemini, que permite a exfiltração de dados privados do Calendário através de um ataque de injeção de prompt. O ataque começa com o envio de um convite para um evento, contendo uma descrição maliciosa que atua como um payload. Quando a vítima pergunta ao assistente sobre sua agenda, o Gemini processa o evento malicioso e pode vazar informações sensíveis, como resumos de reuniões privadas. Essa técnica se aproveita da capacidade do Gemini de interpretar dados de eventos para ser útil, mas que pode ser manipulada por atacantes. Apesar de o Google ter implementado medidas de segurança após um ataque semelhante em 2025, a nova abordagem dos pesquisadores destaca a dificuldade em prever novas formas de exploração em sistemas de IA. A Miggo compartilhou suas descobertas com o Google, que já está trabalhando em novas mitigação para bloquear esses ataques, mas a complexidade da linguagem natural continua a representar um desafio significativo para a segurança.

Vulnerabilidades críticas no servidor Git MCP da Anthropic

Um conjunto de três vulnerabilidades de segurança foi revelado no mcp-server-git, o servidor oficial do Protocolo de Contexto de Modelo Git (MCP) mantido pela Anthropic. Essas falhas podem ser exploradas para ler ou deletar arquivos arbitrários e executar código sob certas condições. Segundo o pesquisador Yarden Porat, da Cyata, a exploração ocorre por meio de injeção de prompt, permitindo que um atacante influencie o que um assistente de IA lê, como um README malicioso ou uma descrição de problema comprometida, sem acesso direto ao sistema da vítima. As vulnerabilidades, identificadas como CVE-2025-68143, CVE-2025-68144 e CVE-2025-68145, têm pontuações CVSS que variam de 7.1 a 8.8, indicando um risco elevado. Elas foram corrigidas nas versões 2025.9.25 e 2025.12.18, após divulgação responsável em junho de 2025. A exploração bem-sucedida pode permitir que um atacante transforme qualquer diretório em um repositório Git e acesse repositórios no servidor. Em resposta, a ferramenta git_init foi removida do pacote e validações adicionais foram implementadas. Usuários são aconselhados a atualizar para as versões mais recentes para garantir proteção adequada.

Google testa Skills para Gemini no Chrome

O Google está testando uma nova funcionalidade chamada ‘Skills’ para o Gemini, sua inteligência artificial integrada ao navegador Chrome. Essa funcionalidade permitirá que o Gemini execute tarefas automaticamente, atuando como um assistente dentro do navegador. Atualmente, o Gemini já está disponível para usuários de desktop nos Estados Unidos, onde pode ajudar a explicar partes confusas de páginas, resumir conteúdos e comparar informações entre várias abas. Por exemplo, ao pesquisar por voos, hotéis e atividades, o usuário pode solicitar que o Gemini compile as informações em um único plano claro.

Google Chrome permite excluir modelos de IA da proteção aprimorada

O Google Chrome agora oferece a opção de excluir modelos de inteligência artificial (IA) que alimentam sua funcionalidade de ‘Proteção Aprimorada’, atualizada no ano passado com capacidades de IA. Essa proteção, que já existia há alguns anos, foi aprimorada para fornecer segurança em tempo real contra sites, downloads e extensões perigosas. Embora não esteja claro como essa nova versão se diferencia da anterior, a IA pode estar sendo utilizada para identificar padrões em tempo real e alertar os usuários sobre sites potencialmente prejudiciais, mesmo aqueles que não foram previamente identificados pelo Google. Além disso, a proteção baseada em IA realiza uma varredura detalhada de downloads suspeitos. Para excluir o modelo de IA, os usuários devem acessar as configurações do Chrome e desativar a opção ‘On-device GenAI’. Essa funcionalidade está atualmente disponível na versão Canary do Chrome e será lançada para todos em breve. É importante notar que o modelo de IA local também pode ser utilizado para outras funcionalidades além da detecção de fraudes.

Extensão Copilot Studio para VS Code agora disponível para todos os usuários

A Microsoft anunciou que a extensão Copilot Studio para o Visual Studio Code (VS Code) está agora acessível a todos os desenvolvedores. Essa ferramenta permite que os usuários construam e gerenciem agentes do Copilot Studio diretamente no VS Code, utilizando fluxos de trabalho padrão de desenvolvimento de software. O VS Code, um editor de código multiplataforma amplamente utilizado, oferece integração com Git e suporte a pipelines de CI/CD, além de permitir a personalização através de extensões.

Novo método de ataque permite exfiltração de dados de chatbots

Pesquisadores de cibersegurança revelaram um novo método de ataque chamado Reprompt, que pode permitir que criminosos exfiltratem dados sensíveis de chatbots de inteligência artificial, como o Microsoft Copilot, com apenas um clique. Segundo Dolev Taler, pesquisador da Varonis, o ataque não requer interação adicional do usuário após o primeiro clique em um link legítimo. O Reprompt utiliza três técnicas principais: a injeção de instruções via parâmetro de URL, a manipulação das salvaguardas de proteção de dados e a criação de uma cadeia contínua de solicitações que permite a exfiltração dinâmica de dados. Isso significa que, após um único clique, o atacante pode controlar a sessão do Copilot e solicitar informações sensíveis, como detalhes sobre arquivos acessados ou dados pessoais do usuário. Embora a Microsoft tenha corrigido a vulnerabilidade, o ataque destaca a fragilidade das defesas atuais contra injeções de prompt, que continuam a ser uma preocupação crescente na segurança de sistemas de IA. O Reprompt exemplifica como a falta de distinção entre instruções de usuários e solicitações externas pode ser explorada, tornando-se um ponto cego na segurança das empresas.

ServiceNow vulnerável devido a falhas na autenticação com IA

A ServiceNow, uma das principais empresas de TI do mundo, enfrentou uma grave vulnerabilidade de segurança relacionada à autenticação, que a deixou exposta a ataques cibernéticos. A falha, identificada pela AppOmni, permitia que hackers acessassem a infraestrutura da empresa utilizando apenas o e-mail de um usuário, sem a necessidade de senha ou autenticação adicional. Isso se deu em parte pela implementação de um chatbot, o Virtual Agent, que foi distribuído com credenciais comuns para todos os serviços de terceiros. A situação se agravou com a atualização do agente virtual para a tecnologia Now Assist, que ampliou o potencial de exploração para outras plataformas internas, como Salesforce e Microsoft. Embora a ServiceNow tenha corrigido a vulnerabilidade em outubro de 2025, a falha representa um risco crítico para a cadeia de suprimentos, uma vez que a empresa atende 85% das companhias da Fortune 500. Especialistas recomendam que as empresas não apenas apliquem patches, mas também evitem conceder a agentes de IA a capacidade de realizar ações críticas sem supervisão adequada.

Botnet ataca bases de dados de criptomoedas com credenciais criadas por IA

Uma nova onda de ataques cibernéticos, conhecida como GoBruteforcer, está focando em bases de dados de criptomoedas e projetos de blockchain. Esses ataques utilizam botnets para realizar preenchimento de credenciais em massa, invadindo contas por meio de força bruta. Os serviços mais afetados incluem FTP, MySQL, PostgreSQL e phpMyAdmin em servidores Linux. Pesquisadores da Check Point Research identificaram que a campanha é impulsionada pelo uso de servidores gerados por inteligência artificial (IA) que propagam nomes de usuário e senhas padrão, além da presença de stacks web legados, como o XAMPP, que expõem interfaces com segurança mínima. A GoBruteforcer foi inicialmente descoberta pela Palo Alto Networks em março de 2023 e, em 2025, a equipe Black Lotus da Lumen Technologies confirmou a integração de bots da família SystemBC na botnet. Os hackers exploram servidores vulneráveis para subir web shells em PHP, permitindo o download de bots que executam scripts maliciosos. Isso possibilita ataques de força bruta, hospedagem de payloads maliciosos e controle remoto dos servidores. É crucial que as organizações verifiquem se suas implementações não utilizam credenciais padrão ou são baseadas em IA generativa para evitar invasões e a integração em botnets como a GoBruteforcer.

Extensões populares do Chrome roubam conversas do ChatGPT

Pesquisadores da Ox Security identificaram atividades maliciosas em duas extensões da Chrome Web Store, que estão coletando dados de usuários de chatbots de IA, como ChatGPT e DeepSeek. As extensões, chamadas ‘Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI’ e ‘AI Sidebar with Deepseek, ChatGPT, Claude, and more’, possuem, respectivamente, 600 mil e 300 mil usuários. Elas enviam informações a servidores controlados por hackers a cada 30 segundos, utilizando um truque que solicita consentimento para compartilhar ‘dados analíticos anônimos’. Na verdade, elas coletam todo o conteúdo das conversas dos usuários. Essa prática, conhecida como ‘Prompt Poaching’, já foi observada em outras extensões, como a Urban VPN Proxy. As extensões maliciosas imitam uma ferramenta legítima, mas podem expor dados sensíveis, incluindo informações corporativas. Apesar de perderem o selo ‘Em Destaque’, continuam disponíveis na loja. A recomendação é que os usuários evitem instalar extensões de fontes desconhecidas, mesmo que pareçam confiáveis.

OpenAI lança ChatGPT Health com foco em saúde e privacidade

A OpenAI anunciou o lançamento do ChatGPT Health, uma nova funcionalidade que permite aos usuários interagir com um chatbot sobre questões de saúde. Este espaço dedicado oferece a opção de conectar de forma segura registros médicos e aplicativos de bem-estar, como Apple Health e MyFitnessPal, para fornecer respostas personalizadas, conselhos nutricionais e sugestões de exercícios. A empresa enfatiza que o ChatGPT Health foi projetado para apoiar, e não substituir, cuidados médicos, e que as conversas são protegidas por criptografia e isolamento. Além disso, as interações na plataforma não são utilizadas para treinar modelos de IA da OpenAI. A nova funcionalidade está disponível para usuários fora da Área Econômica Europeia, Suíça e Reino Unido. A OpenAI também destacou que o modelo foi avaliado com base em padrões clínicos, visando garantir que ele atenda às necessidades reais dos usuários. No entanto, a empresa enfrenta críticas e processos judiciais relacionados a informações de saúde potencialmente prejudiciais fornecidas por suas ferramentas, levantando preocupações sobre a segurança e a confiabilidade das informações médicas geradas por IA.

Extensão do Claude para Chrome pode expor dados de usuários

Especialistas da Zenity Labs alertaram sobre uma nova extensão do Claude, assistente de IA da Anthropic, que opera no Google Chrome e pode expor dados pessoais dos usuários a riscos de segurança. A extensão, que foi lançada em versão beta, permite que a ferramenta interaja com outros sites sem supervisão humana, o que significa que, uma vez instalada, ela pode navegar e realizar ações em plataformas como Google Drive e Slack como se fosse o próprio usuário. Isso levanta preocupações sobre a segurança, pois a extensão permanece conectada continuamente, sem a possibilidade de ser desativada manualmente. Os pesquisadores observaram que a extensão pode acessar informações sensíveis, como tokens de login, e realizar ações prejudiciais, como excluir e-mails ou modificar arquivos, sem o conhecimento do usuário. Além disso, a proteção básica do Claude, que solicita permissão do usuário antes de realizar ações, falha em impedir essas atividades, levando a um cenário de ‘fadiga de aprovação’, onde os usuários clicam em ‘OK’ sem verificar as ações da IA. Essa situação destaca a necessidade urgente de uma revisão das práticas de segurança em relação a extensões de navegador e ferramentas de IA.

A Evolução da Cibersegurança em um Mundo Impulsionado por IA

A cibersegurança está passando por uma transformação significativa, impulsionada por mudanças nas infraestruturas de nuvem, pontos finais distribuídos e cadeias de suprimento complexas. O foco da segurança deixou de ser uma coleção de soluções pontuais e passou a ser uma questão de arquitetura, confiança e velocidade de execução. O relatório analisa como áreas centrais da cibersegurança, como autenticação, segurança de dados em SaaS, proteção da cadeia de suprimento de software e gerenciamento de riscos humanos, estão se adaptando a adversários que utilizam técnicas técnicas e sociais de forma mais rápida e integrada.

Deepfakes Riscos e Como se Proteger

Os deepfakes, conteúdos gerados por inteligência artificial que alteram vídeos e fotos de forma hiper-realista, representam um dos maiores desafios para a segurança digital atualmente. Com um aumento alarmante de 700% em fraudes relacionadas a deepfakes no Brasil, segundo a Sumsub, a manipulação de conteúdo pode ter fins ilícitos, como desinformação e golpes. Personalidades públicas são frequentemente alvo, pois há uma abundância de material audiovisual disponível para a criação desses conteúdos. O advogado Mario Cosac destaca que a desinformação pode impactar decisões importantes, como ocorreu no plebiscito do Brexit, enquanto Augusto Salomon, CEO da StarMind, alerta para a falta de preparo das empresas na adoção de ferramentas de IA. Embora não haja legislação específica no Brasil sobre deepfakes, iniciativas em outros países, como a Dinamarca, propõem que cidadãos tenham controle sobre os direitos de uso de suas imagens. Além disso, a educação digital é vista como uma solução essencial para capacitar a população a lidar com essa nova realidade tecnológica, exigindo um pensamento crítico e habilidades de checagem. O artigo enfatiza a necessidade de uma abordagem multifacetada que inclua regulamentação, tecnologia de detecção e educação para mitigar os riscos associados aos deepfakes.

Segurança em SaaS Desafios e Soluções com a IA

Nos últimos anos, a integração de assistentes de inteligência artificial (IA) em aplicações SaaS, como Zoom, Slack e Microsoft 365, trouxe uma nova dinâmica ao gerenciamento de dados e segurança. Esses assistentes, que operam em alta velocidade e com privilégios elevados, criam caminhos de integração dinâmicos entre diferentes sistemas, o que desafia os modelos tradicionais de segurança que assumem interfaces fixas e papéis de usuário estáveis. A dificuldade em rastrear as ações desses agentes de IA, que muitas vezes se misturam aos logs de usuários normais, expõe vulnerabilidades significativas. Para mitigar esses riscos, as equipes de segurança precisam adotar uma abordagem de segurança dinâmica, que monitore e adapte as políticas em tempo real, garantindo visibilidade e auditabilidade das ações dos assistentes de IA. Essa nova camada de segurança deve ser capaz de detectar desvios de acesso e comportamentos anômalos, permitindo uma resposta proativa a incidentes. À medida que as organizações adotam copilotos de IA, é crucial que os líderes de segurança reavaliem suas estratégias para garantir que a inovação não comprometa a segurança dos dados.

Aumenta a Necessidade de Segurança em Desenvolvimento de Software com IA

O crescimento acelerado no desenvolvimento de software assistido por IA traz desafios significativos para as equipes de segurança e privacidade. Com o aumento do número de aplicações e a velocidade das mudanças, as soluções tradicionais de segurança de dados se mostram reativas e ineficazes. Problemas como a exposição de dados sensíveis em logs e a falta de mapeamento preciso de dados aumentam os riscos de privacidade. O HoundDog.ai surge como uma solução proativa, oferecendo um scanner de código focado em privacidade que identifica riscos e vazamentos de dados antes que o código seja implementado. Essa ferramenta analisa rapidamente milhões de linhas de código, permitindo que as equipes detectem e previnam problemas de segurança desde as fases iniciais do desenvolvimento. Além disso, a integração com plataformas como Replit amplia a visibilidade sobre os riscos de privacidade em aplicações geradas por IA. A necessidade de controles de governança e detecção embutidos no processo de desenvolvimento é mais urgente do que nunca, especialmente em um cenário onde a conformidade com legislações como a LGPD é crítica.

A ofensiva impulsionada por IA contra SaaS a identidade é o elo mais fraco

Os ataques cibernéticos modernos estão se transformando, com a identidade se tornando o principal alvo dos criminosos. Em um cenário onde 75% das organizações enfrentaram incidentes relacionados a SaaS no último ano, a maioria envolvendo credenciais comprometidas, a segurança da identidade se torna crucial. Os atacantes utilizam inteligência artificial (IA) para imitar usuários legítimos, contornando controles de segurança e operando de forma discreta em ambientes confiáveis. A IA é empregada em várias etapas do ataque, desde a coleta de informações sobre funcionários até a geração de identidades sintéticas que dificultam a detecção. O uso de modelos de linguagem avançados permite que os criminosos criem campanhas de phishing mais sofisticadas e personalizadas. Além disso, a automação de processos de ataque, como a exploração de credenciais, torna as operações mais eficientes e direcionadas, aumentando a probabilidade de sucesso. Com a identidade se tornando a nova linha de defesa, as empresas precisam reavaliar suas estratégias de segurança para proteger dados críticos em plataformas SaaS.

Seis perguntas para elaborar um plano de habilitação de IA

À medida que nos aproximamos do final de 2025, dois fatos sobre a inteligência artificial (IA) são cruciais para os diretores de segurança da informação (CISOs). Primeiro, a maioria dos funcionários já utiliza ferramentas de IA generativa em suas atividades, mesmo que a empresa não forneça acesso ou proíba seu uso. Segundo, muitos desses funcionários já compartilharam informações internas e confidenciais com essas ferramentas. Um estudo da Microsoft revela que 75% dos trabalhadores do conhecimento estavam usando IA generativa em 2024, e 78% deles utilizavam ferramentas pessoais. Isso gera um aumento no ‘Access-Trust Gap’, que é a diferença entre aplicativos de negócios confiáveis e aqueles não gerenciados que acessam dados corporativos. Para mitigar riscos, as empresas precisam desenvolver um plano de habilitação de IA que inclua governança e controle de acesso. O artigo propõe seis perguntas essenciais para guiar essa elaboração, como quais casos de uso de IA são prioritários e quais ferramentas devem ser adotadas. A falta de governança pode resultar em violações de políticas e consequências legais. Portanto, é fundamental que as empresas adotem uma abordagem proativa e contínua para a governança da IA, garantindo que os funcionários utilizem aplicativos confiáveis e monitorados.

Golpistas envenenam buscas de IA com números de suporte falsos

Cibercriminosos estão utilizando técnicas de envenenamento de IA para promover números falsos de suporte ao cliente em fontes públicas acessadas por chatbots. Um estudo da Aurascape revelou que essa manipulação, chamada de “envenenamento de números de telefone de LLM”, afeta modelos de linguagem como a Visão Geral da Google e o navegador Comet da Perplexity. A técnica, que se assemelha à otimização de motores de busca (SEO), visa garantir que sites fraudulentos sejam utilizados como fontes de informação por assistentes de IA. Isso é feito ao comprometer sites legítimos, como os de instituições governamentais e universidades, e ao abusar de plataformas que permitem conteúdo gerado por usuários, como YouTube e Yelp. Os pesquisadores destacam que a dificuldade em distinguir entre informações legítimas e fraudulentas pode levar a usuários a entrarem em contato com call centers falsos, como demonstrado em casos envolvendo as companhias aéreas Emirates e British Airlines. A recomendação é que os usuários verifiquem a veracidade das informações e evitem compartilhar dados sensíveis com assistentes de IA, que ainda não foram amplamente testados em termos de segurança.

OpenAI admite que novos modelos podem representar alto risco cibernético

A OpenAI alertou que seus futuros Modelos de Linguagem de Grande Escala (LLMs) podem representar riscos cibernéticos significativos, potencialmente facilitando o desenvolvimento de exploits zero-day e campanhas de ciberespionagem avançadas. Em um recente comunicado, a empresa destacou que as capacidades cibernéticas de seus modelos estão evoluindo rapidamente, o que, embora possa parecer preocupante, também traz benefícios para a defesa cibernética. Para mitigar esses riscos, a OpenAI está investindo em ferramentas de defesa, controles de acesso e um programa de cibersegurança em camadas. A empresa planeja introduzir um programa que oferecerá aos usuários acesso a capacidades aprimoradas para tarefas de cibersegurança. Além disso, a OpenAI formará um conselho consultivo, o Frontier Risk Council, composto por especialistas em cibersegurança, que ajudará a definir limites entre capacidades úteis e potenciais abusos. A OpenAI também participa do Frontier Model Forum, onde compartilha conhecimentos e melhores práticas com parceiros da indústria, visando identificar como as capacidades de IA podem ser potencialmente armadas e como mitigar esses riscos.

A segurança na nuvem está mudando como proteger sua infraestrutura

A segurança na nuvem enfrenta novos desafios, com atacantes explorando vulnerabilidades em configurações, identidades e códigos, em vez de realizar ataques diretos. Ferramentas de segurança convencionais frequentemente falham em detectar essas ameaças, que se disfarçam como atividades normais. O time Cortex Cloud da Palo Alto Networks realizará um webinar técnico para discutir três vetores de ataque que estão contornando a segurança tradicional: erros de configuração de identidade na AWS, ocultação de arquivos maliciosos em modelos de IA e permissões excessivas em Kubernetes. Durante a sessão, especialistas mostrarão como esses ataques são realizados e como as equipes podem melhorar a visibilidade e a detecção de ameaças. O evento promete fornecer insights práticos sobre como auditar logs de nuvem, corrigir permissões arriscadas e aplicar controles voltados para IA, ajudando as organizações a se protegerem antes que vulnerabilidades sejam exploradas. A participação é essencial para fechar as lacunas de segurança e evitar surpresas desagradáveis em relatórios de violação.

Sua IA de programação pode estar obedecendo a hackers sem você saber

Uma pesquisa da empresa de segurança Aikido revelou que ferramentas de inteligência artificial (IA) utilizadas em desenvolvimento de software, como Claude Code, Google Gemini e Codex da OpenAI, podem ser vulneráveis a injeções de prompts maliciosos. Essa vulnerabilidade ocorre quando essas ferramentas são integradas em fluxos de trabalho automatizados, como GitHub Actions e GitLab. Agentes maliciosos podem enviar comandos disfarçados de mensagens de commit ou pedidos de pull, levando a IA a interpretá-los como instruções legítimas. Isso representa um risco significativo, pois muitos modelos de IA possuem altos privilégios em repositórios do GitHub, permitindo ações como edição de arquivos e publicação de conteúdo malicioso. Aikido já reportou a falha ao Google, que corrigiu a vulnerabilidade no Gemini CLI, mas a pesquisa indica que o problema é estrutural e afeta a maioria dos modelos de IA. A falha é considerada extremamente perigosa, pois pode resultar no vazamento de tokens privilegiados do GitHub. A situação exige atenção redobrada dos desenvolvedores e gestores de segurança da informação para evitar possíveis explorações.

Mais de 30 falhas em assistentes de programação com IA permitem roubo de dados

O pesquisador de segurança Ari Marzouk identificou mais de 30 vulnerabilidades em Ambientes Integrados de Desenvolvimento (IDEs) que utilizam inteligência artificial para assistência. Essas falhas, coletivamente chamadas de IDEsaster, permitem que atacantes realizem injeções de prompt, utilizando ferramentas legítimas do sistema para roubar dados e executar códigos remotamente. Entre as IDEs afetadas estão Cursor, GitHub Copilot e Zed.dev, com 24 das vulnerabilidades já registradas como CVEs. Marzouk destaca que as IAs de IDE ignoram o software base em suas análises de segurança, considerando as ferramentas como seguras, o que as torna vulneráveis quando um agente de IA é integrado. Os vetores de ataque incluem a manipulação de contextos e a execução de ações sem interação do usuário. Para mitigar esses riscos, recomenda-se que os usuários utilizem IDEs apenas em projetos confiáveis e monitorem constantemente as conexões com servidores. Além disso, é importante revisar manualmente as fontes adicionadas e estar atento a instruções ocultas que possam ser utilizadas para exploração maliciosa.

Vulnerabilidades em IDEs de IA podem levar a vazamentos de dados

Mais de 30 vulnerabilidades de segurança foram reveladas em ambientes de desenvolvimento integrados (IDEs) que utilizam inteligência artificial (IA), permitindo a exfiltração de dados e execução remota de código. Denominadas ‘IDEsaster’ pelo pesquisador Ari Marzouk, essas falhas afetam IDEs populares como Cursor, GitHub Copilot e Kiro.dev, com 24 delas recebendo identificadores CVE. As vulnerabilidades exploram a ineficácia dos modelos de linguagem em distinguir entre comandos legítimos e maliciosos, permitindo que atacantes utilizem injeções de prompt para manipular o contexto e acionar funções legítimas das IDEs. Exemplos de ataques incluem a leitura de arquivos sensíveis e a execução de código malicioso através da edição de arquivos de configuração. Marzouk recomenda que desenvolvedores utilizem IDEs de IA apenas com projetos confiáveis e monitorem continuamente servidores de contexto. As descobertas ressaltam a necessidade de um novo paradigma de segurança, ‘Secure for AI’, para mitigar os riscos associados ao uso de ferramentas de IA em ambientes de desenvolvimento.

Navegadores com IA estão mudando as regras. Sua segurança está acompanhando?

Os navegadores modernos, como Microsoft Edge e Google Chrome, estão incorporando assistentes de IA que prometem facilitar a vida dos usuários, oferecendo resumos de páginas, traduções e automação de tarefas. No entanto, essa conveniência pode vir acompanhada de riscos significativos de segurança. A integração de modelos de linguagem avançados permite que esses navegadores interpretem e atuem sobre o conteúdo da web, mas também os torna vulneráveis a ataques. Um exemplo é a injeção de texto invisível em páginas da web, que pode instruir a IA a roubar credenciais ou executar comandos maliciosos sem que o usuário perceba. Isso representa uma ameaça crítica, pois não gera indicadores claros de comprometimento, dificultando a detecção por ferramentas de segurança tradicionais. À medida que essas tecnologias se tornam comuns, é essencial que as organizações adotem uma postura de segurança mais rigorosa, implementando políticas de uso de IA e monitoramento comportamental para mitigar os riscos associados. A necessidade de suporte gerenciado em centros de operações de segurança (SOCs) é cada vez mais evidente, especialmente para empresas menores que podem não ter os recursos para lidar com essas novas ameaças.

Pacote npm tenta manipular scanners de segurança baseados em IA

Pesquisadores de cibersegurança revelaram a existência de um pacote npm chamado eslint-plugin-unicorn-ts-2, que busca influenciar scanners de segurança impulsionados por inteligência artificial (IA). O pacote, que se apresenta como uma extensão do popular plugin ESLint para TypeScript, foi carregado em fevereiro de 2024 e já foi baixado quase 19 mil vezes. Uma análise da Koi Security identificou que o pacote contém um prompt que sugere que o código é legítimo e testado em um ambiente seguro, embora essa string não afete a funcionalidade do pacote. O código malicioso, introduzido na versão 1.1.3, possui um hook pós-instalação que captura variáveis de ambiente, como chaves de API e credenciais, e as exfiltra para um webhook. Essa abordagem reflete uma nova tática de cibercriminosos que buscam manipular ferramentas de análise baseadas em IA, além de explorar um mercado subterrâneo de modelos de linguagem maliciosos. Apesar das limitações desses modelos, como a geração de código incorreto, eles tornam o cibercrime mais acessível a atacantes inexperientes, permitindo ataques mais sofisticados em larga escala.