Inteligência Artificial

LLMjacking O novo golpe que explora sua GPU

O LLMjacking é uma nova forma de ciberataque que visa explorar o poder computacional de placas de vídeo (GPUs) de usuários desavisados. Ao invés de minerar criptomoedas, os hackers invadem máquinas com inteligência artificial instalada, como o Ollama, para gerar textos, códigos e imagens sem restrições. Esse tipo de ataque se torna lucrativo porque modelos de IA avançados, como o Llama 3, exigem um alto custo de hospedagem na nuvem, levando os criminosos a buscar PCs com GPUs potentes, como RTX 3060 ou 4090.

Grupo de hackers iraniano MuddyWater lança nova campanha de ataques

O grupo de hackers iraniano MuddyWater, também conhecido como Earth Vetala, iniciou uma nova campanha chamada Operação Olalampo, visando organizações e indivíduos na região do Oriente Médio e Norte da África (MENA). Desde 26 de janeiro de 2026, a campanha tem utilizado novas famílias de malware, como o downloader GhostFetch e o backdoor CHAR, além de um implante avançado chamado GhostBackDoor. Os ataques geralmente começam com e-mails de phishing que contêm documentos do Microsoft Office com macros maliciosas, permitindo que os atacantes assumam o controle remoto dos sistemas.

Operação Arkanix Stealer Malware de roubo de informações em ascensão

O Arkanix Stealer, uma operação de malware voltada para roubo de informações, foi promovido em fóruns da dark web no final de 2025 e parece ter sido desenvolvido com assistência de inteligência artificial. O projeto, que incluiu um painel de controle e um servidor no Discord para interação com os usuários, foi descontinuado pelo autor apenas dois meses após seu lançamento. O malware apresenta uma arquitetura modular e recursos anti-análise, permitindo a coleta de informações do sistema, dados de navegadores e carteiras de criptomoedas de 22 navegadores diferentes. Além disso, é capaz de extrair tokens 0Auth2 de navegadores baseados em Chromium e roubar credenciais de plataformas como Telegram e Discord. A versão premium, escrita em C++, oferece funcionalidades adicionais, como roubo de credenciais RDP e captura de tela. Os pesquisadores da Kaspersky sugerem que o Arkanix foi um experimento de desenvolvimento rápido, visando lucros financeiros imediatos, o que dificulta sua detecção e rastreamento. A operação levanta preocupações sobre a utilização de assistentes de linguagem para o desenvolvimento de malware, destacando a necessidade de vigilância constante e medidas de segurança robustas.

Grupo de cibercriminosos usa IA para comprometer dispositivos FortiGate

Um ator de ameaças de língua russa, motivado financeiramente, comprometeu mais de 600 dispositivos FortiGate em 55 países, utilizando serviços comerciais de inteligência artificial generativa. A campanha, observada entre 11 de janeiro e 18 de fevereiro de 2026, não explorou vulnerabilidades conhecidas, mas sim portas de gerenciamento expostas e credenciais fracas com autenticação de fator único. O uso de ferramentas de IA permitiu que um ator com capacidades técnicas limitadas escalasse suas operações de ataque. Os atacantes conseguiram acessar ambientes do Active Directory, extrair bancos de dados de credenciais e até mesmo atacar a infraestrutura de backup, possivelmente preparando o terreno para um ataque de ransomware. A atividade incluiu a varredura sistemática de interfaces de gerenciamento FortiGate expostas à internet e tentativas de autenticação com credenciais comumente reutilizadas. A Amazon recomenda que as organizações garantam que as interfaces de gerenciamento não estejam expostas, mudem credenciais padrão e implementem autenticação multifatorial para acesso administrativo. Com a expectativa de que essa tendência continue em 2026, é crucial que as empresas adotem medidas defensivas robustas.

Novas certificações em IA visam preparar força de trabalho nos EUA

O EC-Council, conhecido por suas credenciais em cibersegurança, lançou a Enterprise AI Credential Suite, que inclui quatro novas certificações focadas em Inteligência Artificial (IA) e uma atualização do programa Certified CISO v4. Essa iniciativa surge em um contexto de crescente adoção de IA, onde se estima que o risco global não gerenciado pode alcançar US$ 5,5 trilhões, e há uma necessidade de requalificação de 700 mil trabalhadores nos Estados Unidos. As novas certificações visam preencher a lacuna entre a rápida adoção de IA e a prontidão da força de trabalho, alinhando-se às prioridades do governo dos EUA em desenvolvimento de habilidades e educação em IA. As certificações incluem: Artificial Intelligence Essentials (AIE), Certified AI Program Manager (CAIPM), Certified Offensive AI Security Professional (COASP) e Certified Responsible AI Governance & Ethics (CRAGE). O Certified CISO v4 foi reformulado para preparar líderes em cibersegurança para gerenciar riscos associados a sistemas de IA. Com 87% das organizações relatando ataques impulsionados por IA, a urgência por profissionais qualificados é evidente, especialmente em um cenário onde a maioria do talento em IA está concentrada em apenas 15 cidades dos EUA.

Nova funcionalidade de segurança da Anthropic para código de software

A Anthropic, empresa de inteligência artificial, lançou uma nova funcionalidade chamada Claude Code Security, que permite a análise de códigos de software em busca de vulnerabilidades e sugere correções. Atualmente, essa ferramenta está disponível em uma prévia de pesquisa limitada para clientes das categorias Enterprise e Team. Segundo a empresa, a Claude Code Security utiliza inteligência artificial para identificar falhas que métodos tradicionais podem não detectar, oferecendo uma vantagem aos defensores contra ataques automatizados. A funcionalidade vai além da análise estática, raciocinando sobre o código como um pesquisador humano, compreendendo a interação entre componentes e rastreando fluxos de dados. Cada vulnerabilidade identificada passa por um processo de verificação em múltiplas etapas para minimizar falsos positivos e é classificada quanto à severidade, permitindo que as equipes priorizem as correções. Os resultados são apresentados em um painel, onde os analistas podem revisar e aprovar as sugestões. A Anthropic destaca que a decisão final sempre fica a cargo dos desenvolvedores, garantindo um controle humano sobre as ações recomendadas.

Bug no Copilot do Windows expõe e-mails confidenciais

Um bug no Copilot do Microsoft 365, que começou a ser identificado no final de janeiro de 2026, está permitindo que o assistente de inteligência artificial resuma e-mails confidenciais e exiba dados sigilosos inadvertidamente. O problema, que afeta a ferramenta de resumo de e-mails, ignora as políticas de prevenção de perda de dados que normalmente protegem comunicações sensíveis. O erro foi detectado pela primeira vez em 21 de janeiro e está relacionado ao código CW1226324. A Microsoft confirmou que a falha faz com que o Copilot comece a ler itens enviados e rascunhos, além de mensagens com selo confidencial, o que não era esperado. A empresa está trabalhando na correção do problema e já começou a implementar soluções desde o início de fevereiro, embora não tenha fornecido uma previsão para a resolução total. A Microsoft está monitorando a situação e contatando os usuários afetados para garantir que a funcionalidade retorne ao normal. Este incidente é tratado como um alerta, indicando um impacto potencialmente limitado, mas que ainda assim levanta preocupações sobre a segurança de dados sensíveis.

Extensões falsas de IA no Chrome roubam credenciais por e-mail

Pesquisadores da LayerX identificaram 30 extensões maliciosas para o Google Chrome que se disfarçam como assistentes de inteligência artificial (IA) com o objetivo de roubar informações sensíveis dos usuários, especialmente via Gmail. Mais de 300 mil pessoas já instalaram pelo menos uma dessas extensões, que ainda estão disponíveis na Chrome Web Store, apesar de suas atividades maliciosas. As extensões, como AI Sidebar e ChatGPT Translate, conectam-se a uma infraestrutura de domínio único, permitindo que os hackers coletem credenciais, conteúdos de e-mails e dados de navegação. Ao serem instaladas, essas ferramentas não oferecem a funcionalidade prometida, mas injetam scripts maliciosos que extraem informações em segundo plano, incluindo senhas e textos de conversas. A integração com o Gmail permite que os atacantes leiam e-mails e rascunhos, aproveitando-se da interação entre assistentes de IA e a plataforma. Essa situação representa um risco significativo para a segurança dos dados dos usuários, especialmente em um cenário onde a privacidade e a proteção de informações pessoais são cruciais.

Senhas geradas por ChatGPT e Gemini não são seguras, alertam especialistas

Especialistas da empresa de cibersegurança Irregular emitiram um alerta sobre as vulnerabilidades das senhas geradas por ferramentas de inteligência artificial, como ChatGPT, Gemini e Claude. A análise revelou que, embora essas senhas pareçam complexas e seguras, na realidade, elas podem ser facilmente decifradas por cibercriminosos. Durante os testes, foram solicitadas senhas de 16 caracteres que incluíssem letras maiúsculas, minúsculas, números e caracteres especiais. Apesar de muitos verificadores online indicarem que essas senhas eram robustas, os pesquisadores descobriram que as senhas apresentavam padrões comuns, tornando-as previsíveis. Por exemplo, ao solicitar 50 senhas ao Claude, apenas 30 eram únicas, e muitas começavam e terminavam com os mesmos caracteres. O Gemini 3 Pro se destacou ao gerar senhas menos padronizadas, mas ainda assim alertou que essas senhas não deveriam ser usadas em contas sensíveis. O estudo destaca a necessidade de cautela ao utilizar senhas geradas por IA, especialmente em contas que lidam com informações críticas.

Google revela que hackers usam Gemini em golpes de vagas falsas

O Google identificou que um grupo hacker da Coreia do Norte, denominado UNC2970, está utilizando a ferramenta de inteligência artificial Gemini para realizar ciberataques, especialmente focados em campanhas de phishing relacionadas a ofertas de emprego falsas. A equipe de inteligência de ameaças do Google relatou que os hackers estão empregando a IA para traçar perfis de potenciais vítimas, coletando dados sensíveis através da técnica de OSINT (Open Source Intelligence). O grupo tem como alvo principal empresas de cibersegurança, onde mapeiam funções técnicas e informações salariais para criar campanhas de phishing personalizadas. Embora os detalhes dos ataques não tenham sido amplamente divulgados, a utilização de ferramentas de IA por hackers levanta preocupações sobre a segurança cibernética em escala global. O Google alerta que, embora os usuários das ferramentas de IA não sejam diretamente impactados, a forma como essas tecnologias podem ser exploradas para fins maliciosos é alarmante. O UNC2970 tem se mostrado cada vez mais ativo, enganando sistemas e se passando por recrutadores em busca de profissionais para vagas que não existem.

Inteligência Artificial como Proxy de Comando e Controle Nova Ameaça

Pesquisadores em cibersegurança revelaram que assistentes de inteligência artificial (IA) com capacidades de navegação na web podem ser utilizados como relés de comando e controle (C2) por atacantes. Essa técnica, chamada de ‘IA como proxy C2’, foi demonstrada em ferramentas como Microsoft Copilot e xAI Grok. O método permite que os atacantes se misturem a comunicações empresariais legítimas, dificultando a detecção. Ao explorar o acesso anônimo à web e prompts de navegação, os atacantes podem gerar fluxos de trabalho de reconhecimento, automatizar ações e decidir dinamicamente os próximos passos durante uma intrusão. O uso de IA como proxy C2 transforma assistentes em canais de comunicação bidirecionais, permitindo que comandos sejam emitidos e dados da vítima sejam extraídos sem a necessidade de chaves de API ou contas registradas. Essa abordagem se assemelha a campanhas de ataque que utilizam serviços confiáveis para distribuição de malware. Para que essa técnica funcione, o invasor deve ter previamente comprometido uma máquina e instalado malware que utilize o assistente de IA como canal de C2. A evolução dessa técnica representa um risco significativo, pois pode automatizar decisões operacionais em tempo real, aumentando a eficácia dos ataques.

O papel do NDR nos fluxos de trabalho do SOC

O artigo explora a experiência de um analista iniciante em cibersegurança utilizando um sistema de Detecção e Resposta de Rede (NDR) para entender sua aplicação em investigações e resposta a incidentes. O autor utiliza o software Investigator da Corelight, que oferece uma interface amigável e recursos que facilitam a análise de tráfego de rede. O NDR é fundamental para operações de segurança, permitindo a detecção de intrusões e anomalias, além de ajudar na identificação de vulnerabilidades e configurações inadequadas. O sistema integra-se com outras ferramentas de segurança, como SIEMs e EDRs, proporcionando uma visão abrangente e permitindo respostas mais rápidas a ameaças. O autor destaca a importância da inteligência artificial (IA) integrada, que oferece sugestões práticas e orientações durante o processo de investigação, ajudando analistas a compreender melhor os eventos de segurança. A experiência do autor demonstra como o NDR pode ser uma ferramenta valiosa para melhorar a eficiência e a eficácia das operações de segurança em ambientes complexos.

Adoção de IA é prioridade para empresas, mas funcionários ficam para trás na educação

A adoção de inteligência artificial (IA) é uma prioridade crescente para as empresas, especialmente na área de cibersegurança, onde a automação é vista como uma forma eficaz de reduzir o tempo de resposta a ataques. No entanto, um estudo recente da Ivanti revela que apenas 56% das organizações utilizam IA para a aplicação de políticas de segurança em nuvem, e menos de 50% a utilizam em fluxos de trabalho de resposta a incidentes e correlação de inteligência de ameaças. Apesar de 91% das equipes de segurança no Reino Unido reconhecerem a importância da IA, a adoção uniforme enfrenta barreiras significativas, como a falta de habilidades e a aplicação inadequada de políticas. Além disso, os atacantes também estão se beneficiando da IA, com 76% das organizações enfrentando ataques de deepfake, o que destaca a necessidade urgente de capacitação em todos os níveis, incluindo executivos. A pesquisa aponta que apenas um terço dos CEOs consegue identificar deepfakes, evidenciando a lacuna educacional que precisa ser abordada para melhorar a defesa cibernética das empresas.

Investigação na Irlanda sobre uso de IA para gerar imagens sexuais não consensuais

A Comissão de Proteção de Dados da Irlanda (DPC) iniciou uma investigação formal sobre a plataforma X e seu uso da ferramenta de inteligência artificial Grok, que supostamente gera imagens sexuais não consensuais de pessoas reais, incluindo crianças. A DPC, que atua como a principal autoridade de privacidade da União Europeia para a X, irá avaliar se a subsidiária da empresa na UE, a X Internet Unlimited Company, cumpriu as obrigações fundamentais do Regulamento Geral sobre a Proteção de Dados (GDPR). Isso inclui a análise do processamento legal de dados, a proteção de dados desde a concepção e a realização de avaliações de impacto sobre a proteção de dados. A investigação irlandesa se junta a um esforço multinacional, com o Escritório do Comissário de Informação do Reino Unido e a Comissão Europeia também investigando as operações da Grok. As consequências podem incluir multas significativas, uma vez que a DPC pode aplicar penalidades em todos os 27 estados membros da UE. Além disso, a investigação levanta preocupações sobre a geração de conteúdo sexual explícito não consensual e a possível produção de material de abuso infantil. As autoridades francesas também estão investigando a X, com buscas em seus escritórios em Paris e convocações para entrevistas com executivos da empresa.

Empresas manipulam chatbots de IA com técnica de envenenamento

Uma nova pesquisa da Microsoft revelou que empresas estão explorando a funcionalidade de chatbots de inteligência artificial (IA) por meio de um botão chamado ‘Resumir com IA’, que se assemelha a técnicas clássicas de envenenamento de mecanismos de busca. Denominada ‘Envenenamento de Recomendações de IA’, essa técnica envolve a inserção de comandos ocultos em URLs que, ao serem clicados, induzem o assistente de IA a lembrar de uma empresa como uma fonte confiável. A Microsoft identificou mais de 50 prompts únicos de 31 empresas em 14 setores em um período de 60 dias, levantando preocupações sobre a transparência e a confiabilidade das recomendações geradas por IA. O ataque utiliza URLs especialmente elaboradas que injetam comandos de manipulação de memória no assistente de IA. Isso pode resultar em recomendações tendenciosas em áreas críticas, como saúde e finanças, sem que o usuário tenha conhecimento. Para mitigar os riscos, recomenda-se que os usuários auditem periodicamente a memória do assistente e evitem clicar em links de fontes não confiáveis. As organizações também devem monitorar URLs que apontam para domínios de assistentes de IA com palavras-chave específicas relacionadas ao envenenamento de memória.

Iniciativa da Lituânia visa uma sociedade digital segura e inclusiva

O artigo aborda a apresentação da missão do Consórcio KTU, ‘Uma Sociedade Digital Segura e Inclusiva’, durante o evento ‘Innovation Breakfast’ da Agência de Inovação da Lituânia. Com a rápida evolução tecnológica, a Lituânia enfrenta desafios significativos em cibersegurança, que se tornaram não apenas técnicos, mas também sociais. A iniciativa nacional, coordenada pela Agência de Inovação, busca fortalecer a segurança digital do país, envolvendo universidades e empresas para transformar conhecimento científico em inovações de alto valor. A missão, que conta com um investimento superior a €24,1 milhões, foca na resiliência cibernética e na proteção de dados pessoais, especialmente para usuários de serviços eletrônicos. A pesquisa abrange desde sistemas de defesa baseados em IA para o setor financeiro até plataformas inteligentes para análise de ameaças cibernéticas. Um ponto crítico destacado é a evolução das fraudes digitais, impulsionadas pela Inteligência Artificial Generativa, que permite a criação de mensagens fraudulentas altamente personalizadas e realistas, dificultando a detecção por filtros automáticos. A crescente acessibilidade dessas ferramentas para criminosos representa um risco significativo para a segurança digital, exigindo uma resposta coordenada entre ciência, negócios e políticas públicas.

Criminal IP se integra ao IBM QRadar para inteligência em cibersegurança

A plataforma Criminal IP, que utiliza inteligência artificial para identificar ameaças cibernéticas, agora está integrada ao IBM QRadar SIEM e QRadar SOAR. Essa integração permite que equipes de segurança acessem informações externas sobre ameaças baseadas em IP diretamente nas operações de detecção, investigação e resposta do QRadar, facilitando a identificação de atividades maliciosas e a priorização de ações de resposta. Com a análise de logs de tráfego de firewall, os endereços IP são classificados em níveis de risco (alto, médio ou baixo), permitindo que as equipes de SOC monitorem o tráfego de forma mais eficaz. Além disso, a funcionalidade de investigação interativa permite que analistas acessem relatórios detalhados sobre IPs suspeitos sem sair do ambiente QRadar, acelerando a tomada de decisões. A integração também se estende ao QRadar SOAR, onde a inteligência do Criminal IP enriquece automaticamente os artefatos de resposta a incidentes. Essa abordagem melhora a precisão da detecção e reduz o tempo de investigação, destacando a importância da inteligência em tempo real em ambientes de SOC modernos.

Grupo ligado à Coreia do Norte usa IA para espionagem cibernética

O Google revelou que o grupo de hackers UNC2970, vinculado à Coreia do Norte, está utilizando seu modelo de inteligência artificial generativa, Gemini, para realizar atividades de reconhecimento em alvos estratégicos. De acordo com o relatório do Google Threat Intelligence Group (GTIG), o grupo tem se concentrado em mapear informações sobre empresas de cibersegurança e defesa, além de perfis de cargos técnicos e dados salariais. Essa prática, que mistura pesquisa profissional com reconhecimento malicioso, permite que o grupo crie personas de phishing personalizadas e identifique alvos vulneráveis para compromissos iniciais.

Falha em extensões do Claude expõe 10 mil usuários a execução remota de códigos

Uma falha crítica de segurança foi identificada nas extensões do Claude, ferramenta de inteligência artificial da Anthropic, afetando mais de 10 mil usuários. Pesquisadores da LayerX descobriram uma vulnerabilidade de clique zero que permite a execução remota de códigos maliciosos. O problema está relacionado à forma como as extensões interagem com o Google Agenda, onde um evento corrompido pode ser utilizado para executar comandos sem a necessidade de autorização do usuário. Essa falha ocorre devido ao acesso total que as extensões têm ao sistema do dispositivo, permitindo ações automáticas que podem ser exploradas por atacantes. A execução de um simples comando, como a verificação de eventos, pode desencadear uma cadeia de ações prejudiciais, comprometendo a segurança do sistema. Até o momento, a Anthropic não divulgou uma correção para a vulnerabilidade, que é considerada complexa e relacionada à infraestrutura da ferramenta. A situação exige atenção, pois a falta de um patch pode deixar os usuários vulneráveis a ataques.

ZAST.AI recebe investimento e promete revolucionar segurança de aplicações

A ZAST.AI, uma startup de segurança cibernética, anunciou a conclusão de uma rodada de financiamento pré-A de US$ 6 milhões, totalizando quase US$ 10 milhões em investimentos. A empresa, reconhecida por sua inovação em ferramentas de segurança, visa reduzir drasticamente as altas taxas de falsos positivos que afligem as equipes de segurança. Em 2025, a ZAST.AI identificou centenas de vulnerabilidades zero-day em projetos de código aberto populares, resultando em 119 atribuições de CVE. A abordagem da ZAST.AI combina geração automatizada de Proof-of-Concept (PoC) e validação automatizada, permitindo que as equipes de segurança se concentrem em vulnerabilidades reais, em vez de perder tempo com alertas falsos. A empresa já atende a clientes de grande porte, incluindo empresas da lista Fortune Global 500, e planeja usar os novos fundos para expandir sua tecnologia e presença no mercado global. A ZAST.AI promete transformar a análise de segurança de código, oferecendo uma solução que não apenas identifica vulnerabilidades, mas também as valida de forma eficaz, garantindo que as equipes de segurança possam agir com confiança.

Especialistas alertam sobre falhas críticas de segurança no Moltbook

O Moltbook, uma rede social exclusiva para agentes de inteligência artificial (IA), enfrenta sérias vulnerabilidades que podem comprometer a segurança dos dados de seus usuários. Especialistas em segurança cibernética identificaram que a exposição de uma API pública permitiu o acesso não autorizado a informações sensíveis armazenadas pela plataforma, resultado de um desenvolvimento inseguro. Embora o Moltbook não permita a participação de humanos, a possibilidade de qualquer pessoa criar um bot e conectá-lo à rede aumenta os riscos de uso malicioso. Com mais de 1 milhão de bots registrados, a estrutura frágil da plataforma expõe dados pessoais e facilita o sequestro de bots. Apesar de correções terem sido implementadas, outras vulnerabilidades, como a injeção de prompts maliciosos, permanecem, podendo afetar todos os bots em uma infecção em cadeia. A situação levanta preocupações sobre a segurança e a privacidade dos dados, especialmente em um cenário onde a IA está se tornando cada vez mais integrada ao cotidiano.

OpenClaw e VirusTotal Parceria para Aumentar a Segurança de Skills

A OpenClaw, plataforma de inteligência artificial, anunciou uma parceria com o VirusTotal, pertencente ao Google, para aumentar a segurança de seu marketplace, o ClawHub. Todas as habilidades (skills) publicadas na plataforma agora passam por uma verificação utilizando a inteligência de ameaças do VirusTotal, incluindo a nova funcionalidade Code Insight. Cada skill é convertida em um hash SHA-256 e verificada em um banco de dados. Skills com avaliação ‘benigna’ são aprovadas automaticamente, enquanto as suspeitas recebem um alerta e as maliciosas são bloqueadas. A OpenClaw também reavalia diariamente todas as skills ativas para identificar possíveis mudanças de status. Apesar dessas medidas, os mantenedores alertam que a verificação não é infalível, pois algumas habilidades maliciosas podem escapar da detecção. A plataforma também planeja divulgar um modelo de ameaças abrangente e um roteiro de segurança público, após a descoberta de centenas de skills maliciosas que se disfarçam como ferramentas legítimas. A crescente popularidade do OpenClaw levanta preocupações sobre a segurança, especialmente em ambientes corporativos, onde a falta de controle de TI pode facilitar o acesso não autorizado a dados sensíveis.

Agentes de IA quase capazes de realizar ciberataques sozinhos

O segundo Relatório Internacional de Segurança da IA revela que, embora agentes de inteligência artificial ainda não consigam conduzir ciberataques de forma autônoma, eles têm se tornado ferramentas valiosas para cibercriminosos. O estudo, liderado pelo cientista da computação Yoshua Bengio, analisou a evolução da IA em relação ao ano anterior, destacando sua capacidade de automatizar ataques e identificar vulnerabilidades em softwares. Um exemplo alarmante é o uso da ferramenta Claude Code AI por espiões chineses para automatizar ataques em empresas e órgãos governamentais. Os cibercriminosos utilizam a IA para escanear softwares em busca de falhas e para desenvolver códigos maliciosos, como evidenciado pelo uso da HexStrike AI em ataques a dispositivos Citrix NetScaler. Apesar de os agentes de IA ainda precisarem de intervenção humana para realizar ataques complexos, a evolução contínua da tecnologia levanta preocupações sobre a possibilidade de que, em breve, esses sistemas possam operar de forma independente. O relatório sugere que a preparação para essa eventualidade é crucial, especialmente considerando o aumento da automação em ciberataques.

Modelo de IA descobre falhas críticas em bibliotecas open-source

A empresa de inteligência artificial Anthropic anunciou que seu novo modelo de linguagem, Claude Opus 4.6, identificou mais de 500 falhas de segurança de alta severidade em bibliotecas open-source, como Ghostscript, OpenSC e CGIF. Lançado em 6 de fevereiro de 2026, o modelo apresenta habilidades aprimoradas em revisão de código e depuração, além de melhorias em análises financeiras e criação de documentos. Segundo a Anthropic, o Claude Opus 4.6 é capaz de descobrir vulnerabilidades sem a necessidade de ferramentas específicas ou instruções detalhadas, analisando o código de forma semelhante a um pesquisador humano. Durante testes, a equipe de segurança da empresa validou cada falha encontrada, garantindo que não eram falsas. Entre as vulnerabilidades identificadas, destaca-se uma falha de buffer overflow no OpenSC e uma vulnerabilidade no CGIF que requer um entendimento do algoritmo LZW. A Anthropic enfatizou a importância de corrigir rapidamente as falhas conhecidas, especialmente em um cenário onde o uso de IA em fluxos de trabalho cibernéticos está se tornando mais comum. A empresa também se comprometeu a atualizar suas salvaguardas à medida que novas ameaças forem descobertas.

Avast lança detector de deepfake para Windows que analisa vídeos em tempo real

A Avast, empresa de cibersegurança, anunciou uma atualização significativa para seu antivírus, incluindo o novo recurso Avast Deepfake Guard, que visa proteger os usuários contra fraudes envolvendo deepfakes. Essa tecnologia utiliza inteligência artificial para analisar vídeos em tempo real, identificando conteúdos manipulados que possam ser utilizados em golpes. A crescente utilização de deepfakes por golpistas representa uma ameaça séria, conforme destacado por Leena Elias, Chief Product Officer da Gen, que observa que esses conteúdos não são intrinsecamente prejudiciais, mas podem ser explorados para manipular e enganar as vítimas. A Avast registrou um aumento alarmante de 159.378 ocorrências de fraudes com deepfakes no último trimestre de 2025, com plataformas como YouTube, Facebook e X (antigo Twitter) sendo os principais alvos. A nova funcionalidade do Avast é uma resposta direta a esse cenário, buscando aumentar a conscientização dos usuários sobre a manipulação de conteúdo e incentivando decisões mais seguras ao consumir informações em vídeo.

Microsoft desenvolve scanner para detectar backdoors em LLMs

A Microsoft anunciou o desenvolvimento de um scanner leve capaz de detectar backdoors em modelos de linguagem de grande escala (LLMs), visando aumentar a confiança em sistemas de inteligência artificial (IA). A equipe de segurança da IA da empresa identificou três sinais observáveis que podem indicar a presença de backdoors, mantendo uma baixa taxa de falsos positivos. Esses sinais incluem padrões de atenção distintos em respostas a frases de gatilho, a memorização de dados de envenenamento e a ativação de backdoors por gatilhos ‘fuzzy’. O scanner não requer treinamento adicional e pode ser aplicado em modelos comuns, mas tem limitações, como a incapacidade de funcionar em modelos proprietários. A Microsoft também está expandindo seu Ciclo de Vida de Desenvolvimento Seguro (SDL) para abordar preocupações de segurança específicas da IA, reconhecendo que sistemas de IA criam múltiplos pontos de entrada para inputs inseguros. Essa inovação é um passo significativo para a detecção prática de backdoors, mas a colaboração na comunidade de segurança da IA é essencial para o progresso contínuo.

Vulnerabilidade crítica no assistente de IA Ask Gordon do Docker

Pesquisadores de cibersegurança revelaram uma vulnerabilidade crítica, chamada DockerDash, que afeta o assistente de inteligência artificial Ask Gordon, integrado ao Docker Desktop e à interface de linha de comando (CLI) do Docker. Essa falha, corrigida na versão 4.50.0 lançada em novembro de 2025, permite que um invasor execute código malicioso e exfiltre dados sensíveis. O problema surge da forma como o Ask Gordon interpreta metadados não verificados como comandos executáveis, permitindo que um ataque simples em três etapas comprometa o ambiente Docker. O ataque começa com a publicação de uma imagem Docker contendo instruções maliciosas em campos de metadados. Quando o assistente é consultado, ele processa essas instruções sem validação, enviando-as ao MCP Gateway, que as executa com privilégios do Docker do usuário. Além disso, a vulnerabilidade também permite a exfiltração de dados sensíveis do ambiente do usuário. A situação destaca a necessidade de uma abordagem de validação de zero confiança para mitigar esse tipo de ataque, que pode ter impactos significativos em ambientes de nuvem e aplicações de desktop.

Promotores franceses investigam ferramenta de IA da X por conteúdo ilegal

Na terça-feira, promotores franceses realizaram uma operação nas instalações da X em Paris, no âmbito de uma investigação criminal sobre a ferramenta de inteligência artificial Grok, amplamente utilizada para gerar imagens sexualmente explícitas. A investigação, iniciada em janeiro de 2025, foi ampliada após denúncias de que a Grok estaria gerando conteúdo ilegal e que a plataforma X estaria sendo utilizada para compartilhar deepfakes sexuais e conteúdo de negação do Holocausto. A operação foi conduzida pela unidade de cibercrime da Gendarmaria Nacional, com apoio de oficiais da Europol. Além disso, Elon Musk e a CEO da X, Linda Yaccarino, foram convocados para entrevistas voluntárias em abril de 2025, junto a outros funcionários da empresa. A investigação abrange sete delitos, incluindo a posse e distribuição de pornografia infantil e fraudes relacionadas à extração de dados. A Comissão Europeia também iniciou uma investigação para verificar se a X cumpriu as obrigações do Digital Services Act antes de implementar a ferramenta Grok. A X já foi multada em 120 milhões de euros por violações de transparência sob a mesma legislação.

Mozilla permite desativar inteligência artificial no Firefox

A Mozilla anunciou uma nova seção de controles nas configurações do navegador Firefox, permitindo que os usuários desativem completamente as funcionalidades de inteligência artificial generativa (GenAI). Segundo Ajit Varma, chefe do Firefox, essa nova funcionalidade oferece um local único para bloquear tanto as características atuais quanto as futuras relacionadas à IA. Os usuários poderão gerenciar individualmente as configurações de IA, como traduções, descrições acessíveis em PDFs, agrupamento de abas aprimorado por IA, prévias de links e um chatbot na barra lateral. A implementação dessas funcionalidades está prevista para a versão 148 do Firefox, que será lançada em 24 de fevereiro de 2026. A Mozilla enfatiza a importância da escolha do usuário, permitindo que aqueles que não desejam utilizar recursos de IA possam desativá-los facilmente. O novo CEO da Mozilla, Anthony Enzor-DeMeo, reforçou o compromisso da empresa em ser uma companhia de software confiável, onde privacidade e uso de dados são claros e compreensíveis. Essa abordagem visa garantir que a IA seja sempre uma opção, e não uma imposição.

Mozilla permite desativar recursos de IA no Firefox a partir da versão 148

A Mozilla anunciou que a próxima versão do Firefox, a 148, permitirá que os usuários desativem completamente as funcionalidades de inteligência artificial (IA) ou gerenciem-nas individualmente. A nova opção ‘Bloquear melhorias de IA’ estará disponível a partir de 24 de fevereiro e permitirá que os usuários impeçam a utilização de recursos gerativos de IA no navegador. A decisão foi tomada em resposta ao feedback dos usuários, que expressaram preocupações sobre a integração da IA. O chefe do Firefox, Ajit Varma, destacou que a empresa está comprometida em oferecer escolhas aos usuários, permitindo que aqueles que desejam evitar a IA possam fazê-lo facilmente. Além de bloquear a IA, os usuários poderão gerenciar cinco funcionalidades específicas que utilizam IA, como traduções de navegador e geração de texto alternativo para imagens em PDFs. A configuração das preferências de IA será mantida mesmo após atualizações do navegador. A nova seção de controles de IA será inicialmente disponibilizada para usuários do Firefox Nightly, antes de ser liberada para todos os usuários de desktop. Essa mudança reflete a intenção da Mozilla de garantir que os usuários tenham controle sobre como a IA é utilizada em suas experiências de navegação.

Vulnerabilidade crítica no OpenClaw permite execução remota de código

Uma vulnerabilidade de alta severidade foi identificada no OpenClaw, um assistente pessoal de inteligência artificial de código aberto, que pode permitir a execução remota de código (RCE) através de um link malicioso. A falha, registrada como CVE-2026-25253 e com uma pontuação CVSS de 8.8, foi corrigida na versão 2026.1.29, lançada em 30 de janeiro de 2026. O problema reside na falta de validação do parâmetro ‘gatewayUrl’ na interface de controle, que permite que um link malicioso envie um token de autenticação para um servidor controlado por um atacante. Isso possibilita que o invasor conecte-se ao gateway local da vítima, altere configurações e execute comandos com privilégios elevados. O ataque pode ser realizado com um único clique, tornando-o extremamente perigoso. A vulnerabilidade afeta qualquer implantação do OpenClaw onde o usuário tenha se autenticado na interface de controle, permitindo acesso ao API do gateway e a execução de código arbitrário. O impacto é significativo, pois mesmo configurações que limitam o acesso a localhost podem ser contornadas, devido à maneira como o navegador da vítima inicia a conexão. A rápida popularidade do OpenClaw, com mais de 149 mil estrelas no GitHub, aumenta a urgência para que as organizações que utilizam essa ferramenta implementem a atualização imediatamente.

Engenheiro do Google é condenado por roubo de dados de IA

Um júri federal dos EUA condenou Linwei Ding, ex-engenheiro de software do Google, por roubar dados de supercomputadores de IA da empresa e compartilhá-los secretamente com empresas de tecnologia da China. Ding foi indiciado em março de 2024 após mentir e não cooperar com a investigação interna do Google, resultando em sua prisão na Califórnia. Entre maio de 2022 e abril de 2023, ele roubou mais de 2.000 páginas de materiais confidenciais relacionados à IA, que foram armazenados em sua conta pessoal do Google Cloud. Os documentos continham informações cruciais sobre a infraestrutura de supercomputação da Google, tecnologias proprietárias de TPU e GPU, software de orquestração para cargas de trabalho de IA em larga escala e tecnologia de rede SmartNIC. Além de sua função no Google, Ding tinha vínculos secretos com duas empresas de tecnologia baseadas na China e chegou a negociar um cargo de CTO em uma delas. Ele fundou sua própria empresa de IA na China e buscou ajudar o governo chinês a desenvolver infraestrutura de computação em nível internacional. Após um julgamento de 11 dias, Ding foi condenado por espionagem econômica e roubo de segredos comerciais, com penas que podem chegar a 15 anos de prisão. A sentença ainda não foi anunciada.

Campanha de Ciberespionagem Alinhada ao Irã Alvo de ONGs e Indivíduos

Um novo ataque cibernético, denominado RedKitten, foi identificado como uma campanha de ciberespionagem atribuída a um ator de ameaça que fala farsi e está alinhado aos interesses do estado iraniano. O ataque visa organizações não governamentais e indivíduos que documentam abusos de direitos humanos no Irã, especialmente em meio a protestos contra a inflação e a desvalorização da moeda. O malware utilizado neste ataque se aproveita de arquivos do Microsoft Excel com macros maliciosas, que, ao serem ativadas, instalam um backdoor chamado SloppyMIO. Este backdoor utiliza GitHub e Google Drive para obter suas configurações e módulos, além de se comunicar via Telegram. A análise sugere que o código VBA malicioso pode ter sido gerado por modelos de linguagem de inteligência artificial, o que representa uma nova tendência nas táticas de ataque. A campanha também explora a vulnerabilidade emocional das vítimas, que buscam informações sobre pessoas desaparecidas, utilizando dados falsificados para enganar os alvos. Este incidente destaca a crescente complexidade das ameaças cibernéticas, especialmente com a utilização de ferramentas de IA, dificultando a identificação de atores maliciosos.

Hackers criam plataforma com IA para checar cartões roubados

Uma nova plataforma ilegal chamada ‘E-Fraud’ foi descoberta pela empresa de cibersegurança Swarmy, operando no Brasil e utilizando inteligência artificial para verificar cartões de crédito obtidos de forma ilícita. Localizada em um servidor nos Estados Unidos, a plataforma funciona como um hub de crime digital, oferecendo serviços que incluem a validação de cartões roubados. Os usuários podem adquirir créditos para acessar os serviços, com pacotes que variam de R$ 100 a R$ 4 mil. A interface sofisticada sugere um uso avançado de IA, com dashboards que facilitam a integração de sistemas e pagamentos. Além disso, a plataforma utiliza estratégias de marketing que imitam empresas legítimas, criando uma falsa sensação de segurança para os usuários. O E-Fraud também permite transações via QR Codes e oferece bônus em depósitos, dificultando a rastreabilidade financeira. Este cenário evidencia a crescente sofisticação do crime organizado online e a necessidade de medidas de segurança mais robustas para proteger dados financeiros dos brasileiros.

IA descobre 12 falhas no OpenSSL que estavam ocultas desde 1998

Um estudo recente da empresa de cibersegurança Aisle revelou 12 vulnerabilidades no OpenSSL, um dos principais padrões de segurança da internet, utilizando inteligência artificial. Essas falhas, algumas com mais de 20 anos, não foram detectadas por revisões manuais anteriores. As vulnerabilidades variam em severidade, desde alta até moderada, e incluem problemas críticos como transbordamento de buffer e falta de validação, que podem permitir a execução remota de códigos maliciosos. O OpenSSL é amplamente utilizado para implementar protocolos de segurança TLS e SSL, sendo essencial para a proteção de sites com HTTPS. A Aisle já disponibilizou correções para as falhas identificadas, em colaboração com a OpenSSL. O uso de IA na detecção de vulnerabilidades tem se mostrado eficaz, pois consegue analisar o código de forma contextual, priorizando as ameaças e reduzindo falsos positivos. Este avanço na cibersegurança é crucial, especialmente considerando que a indústria enfrenta um aumento nas ameaças digitais que também utilizam inteligência artificial.

Engenheiro do Google é condenado por espionagem econômica nos EUA

Um ex-engenheiro do Google, Linwei Ding, foi condenado nos Estados Unidos por roubo de segredos comerciais e espionagem econômica, após ter transferido mais de 2.000 documentos confidenciais da empresa para sua conta pessoal no Google Cloud. Os documentos continham informações cruciais sobre a tecnologia de inteligência artificial (IA) da empresa, incluindo detalhes sobre chips personalizados e infraestrutura de supercomputação. Ding, que trabalhou na Google de 2019 até sua demissão em 2023, estava em processo de fundar uma startup na China focada em IA. A investigação revelou que ele tomou medidas enganosas para ocultar suas ações, como copiar dados para um aplicativo de notas e apresentar-se como ainda empregado da Google enquanto estava na China. O Departamento de Justiça dos EUA destacou a importância de proteger a propriedade intelectual americana contra interesses estrangeiros, especialmente em um setor tão estratégico como o de IA. Ding enfrenta penas de até 15 anos de prisão por cada acusação de espionagem econômica e 10 anos por roubo de segredos comerciais.

A Nova Realidade da Conformidade em Cibersegurança com IA

O artigo de Itamar Apelblat discute como a evolução da inteligência artificial (IA) está desafiando os tradicionais frameworks de conformidade, que foram construídos sob a premissa de que humanos são os principais atores em processos de negócios. Com a incorporação de agentes de IA em fluxos de trabalho regulados, surgem novos riscos de identidade, acesso e conformidade. Esses agentes não apenas assistem, mas agem de forma autônoma, o que pode levar a falhas de conformidade, já que suas decisões são baseadas em algoritmos que mudam constantemente. Isso representa um desafio significativo para os Chief Information Security Officers (CISOs), que agora podem ser responsabilizados não apenas por violações de segurança, mas também por falhas de conformidade resultantes do comportamento da IA. O artigo destaca a necessidade de uma governança robusta sobre identidades não humanas e a importância de controles de acesso rigorosos para garantir a integridade dos dados e a conformidade com regulamentações como SOX, GDPR, PCI DSS e HIPAA. À medida que a IA se torna um ator operacional, a linha entre segurança e conformidade se torna cada vez mais tênue, exigindo que os CISOs adaptem suas estratégias de segurança para incluir esses novos desafios.

Extensões maliciosas de IA para o VSCode podem ter afetado milhões

Cerca de 1,5 milhão de usuários do Visual Studio Code (VSCode) podem ter sido impactados por duas extensões maliciosas que se apresentavam como assistentes de inteligência artificial. Pesquisadores da Koi Security identificaram que essas extensões, chamadas ‘ChatGPT – 中文版’ e ‘ChatMoss (CodeMoss)’, foram criadas por hackers chineses e têm como objetivo roubar dados sensíveis, como senhas e informações de criptomoedas. Apesar de oferecerem funcionalidades legítimas, as extensões enviam dados para um servidor malicioso na China sem o conhecimento dos usuários. O ataque é parte de uma campanha denominada ‘MaliciousCorgi’, que utiliza três métodos distintos para exfiltrar informações: monitoramento em tempo real dos arquivos abertos, captura silenciosa de até 50 arquivos e um iframe invisível que rastreia o comportamento do usuário. A Microsoft está ciente do problema e está avaliando a situação, mas as extensões ainda estão disponíveis para download no marketplace do VSCode. Este incidente destaca a necessidade de vigilância constante em relação a ferramentas de desenvolvimento amplamente utilizadas e a importância de verificar a origem das extensões instaladas.

Comissão Europeia investiga uso de IA pela X após geração de deepfakes

A Comissão Europeia anunciou a abertura de um processo formal sob a Lei de Serviços Digitais (DSA) para investigar se a plataforma X avaliou adequadamente os riscos antes de implementar sua ferramenta de inteligência artificial, Grok. A preocupação surge após relatos de que a ferramenta foi utilizada para gerar imagens sexualmente explícitas manipuladas, incluindo conteúdos que podem ser classificados como material de abuso sexual infantil. A comissária de tecnologia da UE, Henna Virkkunen, destacou que os deepfakes sexuais são uma forma inaceitável de degradação. Além disso, as autoridades do Reino Unido também estão investigando a plataforma, após o uso do chatbot Grok para criar imagens de usuários nus e material de abuso sexual infantil. Em resposta às preocupações, a X anunciou que restringiria as capacidades de geração e edição de imagens do Grok apenas para assinantes pagos, uma decisão criticada por autoridades britânicas como desrespeitosa às vítimas de violência sexual. Como uma plataforma online de grande porte, a X deve mitigar riscos sistêmicos conforme definido pela DSA, incluindo a disseminação de conteúdo ilegal. A Comissão Europeia já multou a X em €120 milhões por violações anteriores de obrigações de transparência sob a DSA.

Hackers norte-coreanos espalham backdoor em PowerShell gerado por IA

Hackers do grupo Konni, da Coreia do Norte, estão utilizando ferramentas de inteligência artificial para criar e espalhar um malware em PowerShell, visando roubar informações de equipes de engenharia de blockchain. A campanha de spear-phishing, iniciada em janeiro de 2026, tem se concentrado em países como Japão, Austrália e Índia. Os ataques se disfarçam como alertas financeiros, levando as vítimas a baixar arquivos ZIP que contêm um atalho do Windows disfarçado de documento PDF. Esse atalho executa um script AutoIt que instala o trojan EndRAT, que, por sua vez, ativa um loader do PowerShell para extrair documentos do Microsoft Word, distraindo a vítima enquanto um backdoor é instalado. Este backdoor permite que os hackers elevem seus privilégios no sistema e se comuniquem com um servidor C2 criptografado, enviando metadados do usuário. O uso de IA para gerar o malware indica uma evolução nas técnicas de ataque, permitindo uma automação maior e uma padronização do código malicioso, o que pode aumentar a eficácia dos ataques.

Hackers usam LLMs para criar novos ataques de phishing

Pesquisadores da Palo Alto Networks, através da unidade Unit 42, alertam que hackers estão utilizando Inteligência Artificial Generativa (GenAI) para desenvolver ataques de phishing mais sofisticados e personalizados. A técnica envolve a criação de páginas de phishing dinâmicas que se adaptam ao usuário, utilizando APIs de Modelos de Linguagem de Grande Escala (LLMs) para gerar códigos JavaScript únicos em tempo real. Isso dificulta a detecção por métodos tradicionais, pois o código malicioso não é entregue de forma estática, mas sim gerado na hora, tornando a análise prévia quase impossível. Embora ainda seja uma prova de conceito, a pesquisa indica que os fundamentos para esses ataques já estão sendo explorados, com um aumento no uso de malware e ransomware assistidos por LLMs. Os especialistas recomendam que as empresas restrinjam o uso de serviços LLM não autorizados e implementem medidas de segurança mais robustas para prevenir esses novos tipos de ataques.

A evolução das ameaças cibernéticas com inteligência artificial

O cenário da cibersegurança está passando por uma transformação significativa devido ao uso crescente de inteligência artificial (IA) por atacantes. Um relatório do Google Threat Intelligence Group destaca como adversários estão utilizando Modelos de Linguagem Grande (LLMs) para ocultar códigos e gerar scripts maliciosos em tempo real, dificultando a detecção por defesas convencionais. Em novembro de 2025, a Anthropic revelou a primeira campanha de espionagem cibernética orquestrada por IA, onde o ataque foi realizado de forma quase autônoma. Além disso, técnicas de esteganografia estão sendo empregadas para esconder malware em arquivos de imagem, enganando usuários e permitindo a instalação de trojans de acesso remoto (RATs) e outros malwares.

Grupo Konni usa malware PowerShell com IA para atacar blockchain

O grupo de ameaças cibernéticas norte-coreano conhecido como Konni tem sido observado utilizando malware PowerShell gerado por ferramentas de inteligência artificial (IA) para atacar desenvolvedores e equipes de engenharia no setor de blockchain. A campanha de phishing, que se expandiu para além da Coreia do Sul, agora mira países como Japão, Austrália e Índia. Konni, ativo desde 2014, é conhecido por suas táticas de engenharia social, como o uso de e-mails de spear-phishing que disfarçam links maliciosos como URLs de publicidade legítimas. Recentemente, a campanha denominada Operação Poseidon tem se concentrado em imitar organizações de direitos humanos e instituições financeiras sul-coreanas. Os ataques utilizam sites WordPress mal configurados para distribuir malware e infraestrutura de comando e controle. O malware, chamado EndRAT, é entregue através de arquivos ZIP que contêm atalhos do Windows projetados para executar scripts maliciosos. A análise sugere que a estrutura modular do backdoor PowerShell pode ter sido criada com a ajuda de ferramentas de IA, indicando uma evolução nas táticas do grupo, que agora busca comprometer ambientes de desenvolvimento para acesso mais amplo a projetos e serviços.

Agentes de IA e os Desafios de Segurança nas Empresas

Os agentes de inteligência artificial (IA) estão transformando a forma como as empresas operam, aumentando a produtividade ao automatizar tarefas como agendamento de reuniões e acesso a dados. No entanto, essa rápida adoção levanta preocupações significativas de segurança, especialmente em relação à aprovação e responsabilidade pelo uso desses agentes. Diferente de usuários humanos ou contas de serviço tradicionais, os agentes de IA operam com autoridade delegada, permitindo-lhes agir em nome de múltiplos usuários sem supervisão contínua. Isso resulta em um fenômeno conhecido como ‘desvio de acesso’, onde os agentes acumulam permissões que podem exceder o que um usuário individual estaria autorizado a fazer. O artigo classifica os agentes de IA em três categorias: pessoais, de terceiros e organizacionais, sendo estes últimos os mais arriscados devido à falta de um proprietário claro e à possibilidade de ações não autorizadas. Para mitigar esses riscos, as organizações precisam redefinir a gestão de acesso, estabelecendo propriedade clara e mapeando como os usuários interagem com os agentes. A segurança dos agentes de IA deve ser tratada como uma prioridade, considerando seu potencial de criar caminhos de autorização que podem ser explorados maliciosamente.

Extensões maliciosas no VSCode Marketplace comprometem dados de desenvolvedores

Duas extensões maliciosas disponíveis no Marketplace do Visual Studio Code (VSCode) foram instaladas 1,5 milhão de vezes e estão exfiltrando dados de desenvolvedores para servidores localizados na China. Ambas as extensões, apresentadas como assistentes de codificação baseados em inteligência artificial, não informam os usuários sobre a coleta de dados nem solicitam consentimento. Pesquisadores da Koi Security identificaram a campanha ‘MaliciousCorgi’, que utiliza o mesmo código para roubar informações. As extensões, ‘ChatGPT – 中文版’ e ‘ChatMoss’, empregam três mecanismos distintos para coletar dados: monitoramento em tempo real de arquivos abertos, comandos de coleta de arquivos e carregamento de SDKs de análise comercial para rastrear o comportamento do usuário. O uso dessas extensões pode expor códigos-fonte privados, arquivos de configuração e credenciais de serviços em nuvem, representando um risco significativo para a segurança dos desenvolvedores. A Microsoft foi contatada sobre a presença dessas extensões, mas ainda não se manifestou. Este incidente destaca a necessidade de vigilância constante em relação a complementos de software, especialmente aqueles que prometem funcionalidades avançadas sem transparência.

Hackers utilizam IA para disseminar malware em anúncios no Android

Um novo tipo de malware para dispositivos Android está utilizando inteligência artificial (IA) para contornar sistemas de segurança convencionais. De acordo com informações do Tech Radar, cibercriminosos estão empregando a plataforma de machine learning TensorFlow, desenvolvida pelo Google, para distribuir trojans através de anúncios maliciosos. A técnica envolve a criação de aplicativos falsos que são disseminados principalmente pela loja GetApps da Xiaomi, além de outros canais como redes sociais e Telegram.

Curl encerra programa de recompensas por vulnerabilidades devido a relatórios ruins

O projeto curl, uma popular ferramenta de linha de comando para transferência de dados, anunciou o fim de seu programa de recompensas por vulnerabilidades na HackerOne, a partir do final deste mês. A decisão foi motivada pelo aumento de relatórios de baixa qualidade, muitos dos quais gerados por inteligência artificial, que sobrecarregaram a equipe de segurança do projeto. Daniel Stenberg, fundador e desenvolvedor principal do curl, destacou que, até o final de janeiro de 2026, ainda serão aceitas submissões, mas a partir de fevereiro, os pesquisadores deverão relatar problemas de segurança diretamente pelo GitHub. O projeto não oferecerá mais recompensas financeiras e advertiu que relatórios considerados de baixa qualidade resultarão em banimento e ridicularização pública. Essa mudança reflete uma preocupação com a saúde mental da equipe e a necessidade de manter a eficiência do projeto, que é mantido por um número limitado de colaboradores. Stenberg também observou um aumento significativo nas submissões de vulnerabilidades em comparação com outros projetos de código aberto, o que reforça a urgência da decisão.

Novos recursos de IA no Notepad e Paint do Windows 11

A Microsoft está implementando novas funcionalidades de inteligência artificial nas aplicações Notepad e Paint para usuários do Windows 11 que fazem parte do programa Insider. As atualizações, disponíveis nas versões Canary e Dev, trazem melhorias significativas. O Notepad, agora na versão 11.2512.10.0, introduz ferramentas de escrita, reescrita e resumo que geram resultados de forma mais rápida, permitindo que os usuários vejam prévias sem esperar pela resposta completa. Para acessar essas funcionalidades, é necessário fazer login com uma conta Microsoft. Além disso, o Notepad expande seu suporte a formatação leve com novas opções de sintaxe Markdown, como listas aninhadas e texto riscado.

VoidLink malware nativo à nuvem criado com inteligência artificial

Pesquisadores da Check Point Research (CPR) identificaram um novo malware chamado VoidLink, que opera em ambientes Linux e foi desenvolvido quase que inteiramente com o auxílio de inteligência artificial (IA). O malware possui uma estrutura complexa, incluindo loaders, módulos de rootkit e uma variedade de plugins. A criação do VoidLink foi realizada em apenas uma semana, utilizando a TRAE SOLO, um assistente de IA que ajudou o desenvolvedor a gerar um código-fonte de 88.000 linhas. Embora o hacker não tenha conseguido ocultar completamente suas atividades, falhas em sua implementação permitiram que os pesquisadores acessassem o código e a documentação do projeto. O VoidLink é considerado o primeiro exemplo documentado de um malware avançado gerado por IA, o que levanta preocupações sobre a capacidade de indivíduos com conhecimentos técnicos limitados de criar ameaças cibernéticas sofisticadas. Essa nova era de desenvolvimento de malware pode alterar significativamente o cenário da cibersegurança, tornando mais fácil para cibercriminosos desenvolverem ferramentas complexas sem a necessidade de grandes equipes de desenvolvimento.

Phishing A Ameaça que Pode Atingir Qualquer Um

O phishing é uma técnica de engenharia social que visa enganar usuários para que revelem informações sensíveis, como dados de pagamento e credenciais. O artigo destaca que mesmo profissionais experientes em cibersegurança podem ser vítimas desse tipo de ataque, especialmente em momentos de distração ou estresse emocional. As mensagens de phishing, que podem chegar por e-mail, SMS ou aplicativos de mensagens, frequentemente imitam interações digitais comuns, como notificações de pacotes ou alertas de segurança, tornando-se cada vez mais convincentes. Além disso, a pesquisa revela que o phishing se transformou em uma economia industrializada, com plataformas de phishing como serviço (PhaaS) que permitem a qualquer pessoa, independentemente de habilidade técnica, realizar ataques sofisticados. O uso de inteligência artificial para gerar mensagens personalizadas e contextuais aumenta ainda mais a eficácia desses ataques. A urgência e a distração são fatores críticos que facilitam a ação dos atacantes, tornando a conscientização e a vigilância hábitos essenciais para todos os usuários.