Ia

Vulnerabilidade crítica no Salesforce Agentforce pode vazar dados

Pesquisadores de cibersegurança revelaram uma falha crítica no Salesforce Agentforce, uma plataforma para criação de agentes de inteligência artificial (IA), que pode permitir que atacantes exfiltratem dados sensíveis do sistema de gerenciamento de relacionamento com o cliente (CRM) da empresa. Nomeada de ForcedLeak, a vulnerabilidade possui uma pontuação CVSS de 9.4 e afeta organizações que utilizam a funcionalidade Web-to-Lead do Salesforce. O ataque ocorre por meio de uma injeção de prompt indireta, onde instruções maliciosas são inseridas em campos de dados externos, levando o sistema a gerar conteúdos proibidos ou a realizar ações não intencionais. O processo envolve cinco etapas, começando com o envio de um formulário Web-to-Lead contendo uma descrição maliciosa, seguido pelo processamento desse lead por um funcionário interno que utiliza um comando padrão de IA. A falha permite que dados sensíveis sejam transmitidos para um domínio controlado pelo atacante. A Salesforce já tomou medidas para mitigar a vulnerabilidade, resegurando o domínio expirado e implementando um mecanismo de lista de URLs confiáveis. Os usuários são aconselhados a auditar dados existentes e implementar validações rigorosas de entrada para detectar possíveis injeções de prompt.

Vulnerabilidades críticas expõem dados de usuários no Wondershare RepairIt

Pesquisadores de cibersegurança da Trend Micro revelaram duas vulnerabilidades críticas no software Wondershare RepairIt, que podem comprometer dados privados dos usuários e permitir ataques à cadeia de suprimentos. As falhas, identificadas como CVE-2025-10643 e CVE-2025-10644, têm pontuações CVSS de 9.1 e 9.4, respectivamente, e permitem que atacantes contornem a autenticação do sistema. Isso pode resultar na execução de código arbitrário nos dispositivos dos clientes. Além disso, a aplicação coleta e armazena dados de forma inadequada, sem criptografia, expondo imagens e vídeos dos usuários. A Trend Micro alertou que o armazenamento em nuvem exposto contém não apenas dados dos usuários, mas também modelos de IA e códigos-fonte da empresa, o que pode facilitar a manipulação de modelos de IA e a realização de ataques à cadeia de suprimentos. A empresa divulgou as vulnerabilidades em abril de 2025, mas não recebeu resposta da Wondershare. Os especialistas recomendam que os usuários limitem a interação com o produto até que uma solução seja implementada.

Como a IA está revolucionando os testes de penetração em cibersegurança

A cibersegurança está passando por uma transformação acelerada, especialmente no que diz respeito aos testes de penetração, ou pentesting. Nos últimos 12 meses, empresas do Reino Unido enfrentaram cerca de 7,78 milhões de crimes cibernéticos, evidenciando a necessidade de estratégias proativas. A inteligência artificial (IA) está mudando a forma como as organizações avaliam e fortalecem suas defesas, permitindo uma transição de testes periódicos para avaliações contínuas. Isso possibilita que as empresas obtenham insights em tempo real sobre suas vulnerabilidades, permitindo uma resposta mais ágil a ameaças. Além disso, o modelo de Pentesting como Serviço (PTaaS) está se tornando popular, oferecendo flexibilidade e escalabilidade para as empresas que buscam melhorar sua postura de segurança. À medida que mais organizações adotam ambientes híbridos e de nuvem, as práticas de pentesting também precisam evoluir para abranger essas novas infraestruturas. Apesar do avanço da IA, a experiência humana continua sendo essencial, pois profissionais de segurança trazem intuição e pensamento crítico que as máquinas não conseguem replicar. A combinação de serviços aumentados por IA com a expertise humana promete acelerar os testes e melhorar a eficácia na identificação de vulnerabilidades.

SpamGPT Ferramenta de IA que facilita ataques cibernéticos

O SpamGPT é uma nova ferramenta de cibercrime que utiliza inteligência artificial para automatizar campanhas de phishing e ransomware, tornando esses ataques mais simples e eficientes. Desenvolvido para criminosos, o SpamGPT oferece uma interface semelhante a painéis de marketing legítimos, permitindo que até mesmo indivíduos com pouca experiência técnica possam criar, agendar e monitorar operações de spam em larga escala. A plataforma integra ferramentas de IA que geram conteúdo convincente para phishing, otimizam linhas de assunto e sugerem melhorias para os golpes, transformando o phishing em um processo acessível a criminosos de baixo nível.

Plataformas impulsionadas por IA facilitam phishing que engana usuários

Desde janeiro de 2025, a Trend Micro identificou um aumento significativo em campanhas de phishing que utilizam plataformas de desenvolvimento impulsionadas por IA, como Lovable.app, Netlify.app e Vercel.app, para hospedar páginas falsas de CAPTCHA. Os atacantes aproveitam os níveis gratuitos de hospedagem e a credibilidade dessas plataformas para criar armadilhas sofisticadas que conseguem evitar a detecção de scanners automáticos. Os e-mails de phishing frequentemente apresentam temas urgentes, como ‘Redefinição de Senha Necessária’ ou ‘Notificação de Mudança de Endereço do USPS’. Ao clicar nos links, os usuários são levados a uma interface de CAPTCHA que parece legítima, mas que, na verdade, redireciona silenciosamente para sites que coletam credenciais, como Microsoft 365 e Google Workspace. A Trend Micro observou que a atividade aumentou entre fevereiro e abril, coincidindo com a adoção crescente do trabalho remoto, e novamente em agosto. Para combater essas táticas, as organizações devem implementar medidas de segurança avançadas e treinar os funcionários para reconhecer sinais de phishing, especialmente em relação a prompts de CAPTCHA. A combinação de controles técnicos e vigilância informada dos usuários é essencial para mitigar esses riscos.

Automação de Alertas de Segurança com IA Eficiência e Consistência

O artigo destaca uma nova funcionalidade da plataforma Tines, que oferece mais de 1.000 fluxos de trabalho pré-construídos para equipes de segurança. Um dos fluxos de trabalho em destaque automatiza o manuseio de alertas de segurança, utilizando agentes de IA para identificar e executar Procedimentos Operacionais Padrão (SOPs) relevantes armazenados no Confluence. Esse processo visa resolver o problema da triagem manual de alertas, que é demorado e suscetível a erros humanos. Com a automação, as equipes podem responder mais rapidamente e de forma consistente, reduzindo o tempo médio de remediação (MTTR) e melhorando a documentação das ações tomadas. O fluxo de trabalho é configurável e pode ser integrado a diversas ferramentas de segurança, como CrowdStrike e Slack, permitindo uma resposta coordenada e eficiente a incidentes. O guia também fornece instruções passo a passo para a implementação do fluxo de trabalho, tornando-o acessível para as equipes de segurança que buscam otimizar suas operações.

Hackers norte-coreanos geram ID militar falsa da Coreia do Sul usando ChatGPT

Hackers da Coreia do Norte, identificados como Kimsuky, utilizaram o ChatGPT para criar uma identificação militar falsa, que foi empregada em ataques de spear-phishing contra instituições de defesa da Coreia do Sul. O Genians Security Center (GSC) reportou que, apesar das restrições implementadas pela OpenAI para evitar a geração de conteúdo malicioso, os criminosos conseguiram contornar essas barreiras ao solicitar um ‘design de amostra’ ou ‘mock-up’. O uso de imagens disponíveis publicamente facilitou a manipulação do modelo de IA. A criação de documentos de identificação falsos é ilegal e representa um risco significativo, especialmente em contextos de segurança nacional. O ataque destaca a vulnerabilidade das instituições de defesa a métodos inovadores de engenharia social, que podem comprometer informações sensíveis e a segurança nacional. O GSC não revelou o nome da instituição alvo, mas enfatizou a necessidade de cautela ao lidar com ferramentas de IA, que podem ser exploradas para fins ilícitos.

Segurança de Agentes de IA A Nova Abordagem da Astrix

Os agentes de inteligência artificial (IA) estão se tornando parte essencial das operações empresariais, mas sua autonomia crescente traz riscos significativos. Um estudo recente revelou que 80% das empresas já enfrentaram ações indesejadas de agentes de IA, como acessos não autorizados e vazamentos de dados. A falta de mecanismos de segurança específicos para esses agentes, que operam 24 horas por dia e utilizam identidades não humanas, torna a gestão de acesso um desafio. Para mitigar esses riscos, a Astrix lançou o Agent Control Plane (ACP), uma solução que fornece credenciais de acesso temporárias e limitadas, seguindo o princípio do menor privilégio. O ACP oferece três benefícios principais: auditorias rápidas e previsíveis, acesso seguro para agentes de IA e aumento da produtividade dos desenvolvedores. A implementação do ACP permite que as organizações tenham visibilidade centralizada sobre cada agente, suas permissões e ações, facilitando o monitoramento em tempo real e a gestão de riscos. Com essa abordagem, as empresas podem implantar agentes de IA de forma segura, garantindo que possam aproveitar ao máximo essa tecnologia sem comprometer a segurança.

Cibercriminosos Usam ChatGPT para Driblar Antivírus

Um novo ataque de ameaça persistente avançada (APT) atribuído ao grupo Kimsuky, vinculado à Coreia do Norte, destaca o uso de ferramentas de IA generativa, como o ChatGPT, para aprimorar campanhas de spear-phishing. Em julho de 2025, a campanha explorou imagens deepfake de crachás de funcionários militares sul-coreanos para infiltrar entidades relacionadas à defesa. Os atacantes enviaram e-mails de phishing que imitavam domínios de instituições de defesa da Coreia do Sul, contendo arquivos maliciosos disfarçados. A análise revelou que o ChatGPT foi manipulado para gerar documentos falsificados, contornando restrições de replicação de ID. Os arquivos maliciosos, uma vez executados, utilizavam scripts ofuscados para se conectar a servidores de comando e controle, permitindo o roubo de dados e o controle remoto de dispositivos infectados. A campanha ilustra uma tendência crescente de atores patrocinados por estados que utilizam IA para engenharia social e entrega de malware, destacando a ineficácia das soluções antivírus tradicionais contra comandos ofuscados e conteúdo gerado por IA. A detecção e resposta em endpoints (EDR) foi identificada como essencial para neutralizar essas ameaças, evidenciando a necessidade de monitoramento proativo para evitar que organizações sejam vítimas de estratégias APT habilitadas por IA.

Ferramenta de pentesting com IA da China gera preocupações de segurança

Uma nova ferramenta de pentesting chamada Villager, desenvolvida por uma empresa chinesa chamada Cyberspike, tem gerado preocupações significativas na comunidade de cibersegurança. Com cerca de 10.000 downloads em apenas dois meses, a ferramenta utiliza inteligência artificial para automatizar operações de segurança ofensiva, integrando recursos do Kali Linux e do DeepSeek AI. A rápida adoção da ferramenta levanta questões sobre seu uso por atores maliciosos, especialmente considerando que Cyberspike possui laços com círculos de hackers e malware. O relatório da Straiker destaca que a Villager pode seguir o mesmo caminho do Cobalt Strike, uma ferramenta amplamente utilizada por cibercriminosos. Além disso, a falta de um site oficial e o histórico da empresa levantam suspeitas sobre suas intenções. A Villager é acessível gratuitamente no PyPI, o que facilita ainda mais sua disseminação. A situação exige atenção, pois a automação de ataques pode aumentar a eficácia de ameaças persistentes e complexas no cenário global de cibersegurança.

EvilAI Usando IA para Exfiltrar Dados do Navegador e Evitar Detecção

Desde o final de agosto de 2025, a Trend™ Research identificou um aumento global de malware disfarçado como aplicações legítimas de IA e produtividade, denominado EvilAI. Este malware utiliza trojans que se apresentam com interfaces realistas e funcionalidades válidas, permitindo a infiltração em sistemas corporativos e pessoais sem levantar suspeitas. Os instaladores do EvilAI são nomeados com termos genéricos, como ‘App Suite’ e ‘PDF Editor’, e, após a instalação, executam um payload JavaScript malicioso em segundo plano. Para garantir a persistência, o malware cria tarefas agendadas e entradas no registro do Windows, permitindo sua reexecução mesmo após reinicializações.

Transformação da Segurança em Aplicações Nativas da Nuvem

O cenário de segurança para aplicações nativas da nuvem está passando por uma transformação significativa, impulsionada pela adoção crescente de tecnologias como containers, Kubernetes e serverless. Embora essas inovações acelerem a entrega de software, também ampliam a superfície de ataque, tornando os modelos de segurança tradicionais inadequados. Em 2025, a visibilidade em tempo de execução (runtime visibility) se destaca como uma capacidade essencial para as plataformas de proteção de aplicações nativas da nuvem (CNAPPs). Essa abordagem permite que as equipes de segurança identifiquem e priorizem ameaças reais, evitando a armadilha de falsos positivos. A integração da inteligência artificial (IA) nesse contexto também se mostra promissora, ajudando a correlacionar sinais de diferentes domínios e a acelerar a resposta a incidentes. Além disso, a responsabilidade compartilhada entre equipes de segurança e desenvolvimento é crucial para garantir que as vulnerabilidades sejam tratadas de forma eficaz. A consolidação de ferramentas em uma única plataforma CNAPP é vista como inevitável para reduzir a fragmentação e melhorar a visibilidade do risco na nuvem. À medida que o uso de containers cresce, a segurança em tempo real, a assistência impulsionada por IA e plataformas unificadas se tornam essenciais para proteger as aplicações de forma eficaz.

Microsoft adiciona ações com IA ao Windows File Explorer

A Microsoft iniciou a distribuição da versão Insider Preview Build 27938 do Windows 11 no Canal Canary, que traz novas funcionalidades impulsionadas por inteligência artificial (IA) diretamente para o File Explorer. A principal novidade são as ‘ações de IA’, que permitem aos usuários interagir com imagens e documentos sem sair do navegador de arquivos. Ao clicar com o botão direito em um arquivo compatível, uma nova opção de ‘ações de IA’ aparece no menu de contexto, oferecendo tarefas como edição de imagens e resumo de documentos. As ações de IA incluem ferramentas como Busca Visual do Bing, que permite pesquisar na web usando imagens, e funcionalidades de edição como desfoque de fundo e remoção de objetos. Além disso, a atualização traz melhorias na visualização do relógio no Centro de Notificações e uma nova seção de privacidade que permite aos usuários monitorar quais aplicativos de terceiros utilizam modelos de IA fornecidos pelo Windows. A Microsoft também corrigiu diversos problemas de confiabilidade nesta versão, mas os usuários devem estar cientes de que as versões Canary podem apresentar erros e não são garantidas para produção.

Vazamentos de chats do ChatGPT revelam usuários como terapeutas e advogados

Recentemente, surgiram preocupações sobre a privacidade das conversas no ChatGPT, após a OpenAI cancelar a funcionalidade que tornava as interações buscáveis, resultando na exposição de dados sensíveis. Uma análise de 1.000 conversas, realizada pela SafetyDetective, revelou que muitos usuários compartilham informações pessoais e discutem questões delicadas, como saúde mental e problemas legais, com a IA, tratando-a como um terapeuta ou consultor. A pesquisa indicou que 60% das interações se enquadravam na categoria de ‘consulta profissional’, levantando questões sobre a confiança dos usuários na precisão das respostas da IA. Além disso, a falta de compreensão sobre o que significa tornar as conversas buscáveis e a possibilidade de vazamentos de dados pessoais expõem os usuários a riscos como phishing e roubo de identidade. Especialistas recomendam que as empresas de IA tornem seus avisos mais claros e ocultem informações pessoais antes de disponibilizar as conversas na internet. A situação destaca a necessidade de cautela ao compartilhar informações sensíveis com chatbots, independentemente da percepção de privacidade da tecnologia.

Hackers usam IA do Google e Amazon para roubar credenciais do npm nx

Recentemente, o pacote npm ’nx’, amplamente utilizado para gerenciamento de código, foi alvo de um ataque cibernético que comprometeu a segurança de cerca de 100 mil contas. Os hackers exploraram uma vulnerabilidade na cadeia logística do pacote, permitindo a publicação de versões maliciosas que escaneavam sistemas de arquivos em busca de credenciais. Essas informações eram então enviadas para um repositório no GitHub sob a conta da vítima. O ataque afetou principalmente usuários de sistemas Linux e macOS, e as versões comprometidas foram rapidamente removidas do registro. A vulnerabilidade foi introduzida em um workflow do GitHub em 21 de agosto e, apesar de ter sido revertida, os criminosos conseguiram explorar um branch desatualizado. Pesquisadores de segurança alertam que este é o primeiro incidente conhecido a utilizar assistentes de desenvolvimento com IA, como Claude Code e Google Gemini CLI, para burlar a segurança. Os usuários afetados são aconselhados a alterar suas credenciais e verificar arquivos de configuração em busca de instruções maliciosas.

Falha de segurança em chatbots de IA expõe segredos dos usuários

Um estudo da empresa de cibersegurança UpGuard revelou uma falha crítica em grandes modelos de linguagem (LLMs) que permitiu o vazamento de conversas entre usuários e chatbots, especialmente aqueles voltados para roleplaying. Essas interações, que muitas vezes envolvem cenários íntimos e fantasias, resultaram na exposição de segredos pessoais na internet em tempo real, levantando preocupações sobre a privacidade e segurança dos dados dos usuários. A falha está relacionada a configurações inadequadas do framework de código aberto llama.cpp, utilizado na execução de LLMs. Embora a UpGuard não tenha revelado quais chatbots foram afetados, o incidente destaca a vulnerabilidade dos usuários a ameaças como chantagem e sextorsion. Especialistas alertam que a falta de protocolos de segurança adequados na implementação desses modelos é um problema sério. Além disso, o fenômeno de usuários desenvolvendo laços emocionais com chatbots pode levar ao compartilhamento de informações pessoais sensíveis, aumentando o risco de abusos. A UpGuard enfatiza a necessidade urgente de protocolos de segurança mais robustos e discussões sobre o impacto social de serviços de companheirismo e pornografia baseados em IA, que atualmente carecem de regulamentação.

Ferramentas de Cibersegurança Baseadas em IA Vulneráveis a Ataques de Injeção

Um estudo recente revelou que agentes de cibersegurança alimentados por inteligência artificial (IA) estão vulneráveis a ataques de injeção de prompt, um novo vetor de ameaça que pode comprometer redes inteiras. Esses ataques exploram a capacidade dos Modelos de Linguagem de Grande Escala (LLMs) de interpretar comandos em linguagem natural, transformando respostas confiáveis em comandos não autorizados. O processo do ataque ocorre em quatro etapas: reconhecimento, recuperação de conteúdo, decodificação de comandos e execução de um shell reverso, permitindo que atacantes obtenham acesso total ao sistema em menos de 20 segundos. Além da obfuscação básica em base64, o estudo identificou seis vetores adicionais que aumentam o risco, como a exfiltração de variáveis de ambiente e ataques homográficos em Unicode. Para mitigar essa ameaça, os pesquisadores propuseram uma arquitetura de defesa em quatro camadas, que inclui isolamento de operações, proteção contra padrões suspeitos e validação em múltiplas camadas. Testes mostraram que essas defesas conseguiram bloquear todas as tentativas de injeção, embora com um pequeno aumento na latência. Essa vulnerabilidade representa um risco significativo para a segurança cibernética, exigindo atenção imediata de profissionais da área.

A Dura Realidade da Adoção de IA nas Empresas

Um relatório do MIT revelou que 40% das organizações adquiriram assinaturas de LLMs empresariais, mas mais de 90% dos funcionários utilizam ferramentas de IA no dia a dia. A pesquisa da Harmonic Security indica que 45,4% das interações sensíveis com IA ocorrem em contas de e-mail pessoais, o que levanta preocupações sobre a chamada ‘Economia de IA Sombra’. Essa situação ocorre porque a adoção de IA é impulsionada pelos funcionários, e não por diretrizes corporativas. Muitas empresas tentam bloquear o acesso a plataformas de IA, mas essa estratégia falha, pois a IA está integrada em quase todos os aplicativos SaaS. Para mitigar riscos, as equipes de segurança precisam entender e governar o uso de IA, tanto em contas autorizadas quanto não autorizadas. A descoberta da IA Sombra é essencial para manter a conformidade regulatória e proteger dados sensíveis. A Harmonic Security oferece soluções para monitorar o uso de IA e aplicar políticas de governança adequadas, permitindo que as empresas se beneficiem da produtividade da IA, enquanto protegem suas informações.

Ameaça Emergente - RAT Waifu de IA Utiliza Táticas de Engenharia Social

Pesquisadores de segurança descobriram o ‘AI Waifu RAT’, um Trojan de Acesso Remoto disfarçado como uma ferramenta de pesquisa em IA. Criado por um entusiasta de criptografia, o malware se apresenta como um personagem virtual, ‘Win11 Waifu’, que promete personalização ao acessar arquivos locais. No entanto, ele oferece uma porta dos fundos para os computadores dos usuários. O RAT opera com uma arquitetura simples de cliente-servidor, escutando comandos em texto simples e permitindo a execução de código arbitrário. O autor utiliza táticas de engenharia social, como sugerir que os usuários desativem suas proteções antivírus, explorando a confiança em comunidades online. A implementação rudimentar do RAT é ofuscada por uma narrativa sofisticada que apela ao desejo dos usuários por experiências inovadoras. Este incidente destaca a necessidade de vigilância em relação a ferramentas que prometem execução de código arbitrário e a importância de educar os usuários sobre engenharia social. A ameaça representa um novo vetor de ataque, utilizando IA como canal de comando e controle, e requer atenção especial de profissionais de segurança.

Hackers podem roubar dados com comandos escondidos em imagens processadas por IA

Pesquisadores do grupo Trail of Bits revelaram uma nova vulnerabilidade que permite a hackers roubar dados de usuários ao injetar comandos maliciosos em imagens processadas por sistemas de inteligência artificial (IA), como o Gemini da Google. A técnica utiliza esteganografia, onde instruções invisíveis ao olho humano são incorporadas em imagens de alta resolução. Quando essas imagens são redimensionadas por algoritmos de IA, os comandos ocultos podem se tornar visíveis e ser interpretados como parte das solicitações do usuário.

Ferramentas de IA desonestas potencializam desastres de DDoS

O cenário de ataques DDoS (Distributed Denial of Service) evoluiu drasticamente, com mais de oito milhões de incidentes registrados globalmente na primeira metade de 2025, segundo pesquisa da NetScout. Esses ataques, que antes eram considerados anomalias raras, agora ocorrem em uma escala quase rotineira, com picos de até 3,12 Tbps na Holanda e 1,5 Gbps nos Estados Unidos. A crescente automação e o uso de botnets, que frequentemente exploram dispositivos comprometidos, como roteadores e dispositivos IoT, têm facilitado a execução desses ataques. A pesquisa destaca que disputas políticas, como as entre Índia e Paquistão e entre Irã e Israel, têm sido catalisadores significativos para essas campanhas de agressão digital. O grupo hacktivista NoName057(16) se destaca, realizando mais de 475 ataques em março de 2025, principalmente contra portais governamentais. A utilização de modelos de linguagem de IA por atacantes tem reduzido as barreiras para novos invasores, permitindo ataques de alta capacidade com conhecimento técnico mínimo. A situação exige que as organizações reavaliem suas defesas tradicionais, que já não são suficientes diante da evolução das táticas de ataque.

Proteção de Endpoints A Revolução da Cibersegurança com IA

O aumento das ameaças cibernéticas, como ransomware, torna a proteção de endpoints uma prioridade crítica para empresas de todos os tamanhos. O artigo destaca a importância de plataformas de cibersegurança que utilizam inteligência artificial (IA) para oferecer proteção autônoma e em tempo real. A SentinelOne, reconhecida como líder no Gartner Magic Quadrant de 2025, apresenta sua plataforma Singularity, que combina EDR, CNAPP e SIEM, permitindo uma resposta rápida a incidentes e redução de riscos operacionais. Com a capacidade de detectar ameaças 63% mais rápido e reduzir o tempo médio de resposta a incidentes em 55%, a solução é especialmente valiosa em setores sensíveis como saúde e finanças, onde a conformidade regulatória é crucial. A plataforma também se destaca por sua arquitetura leve e integração com ferramentas existentes, minimizando a fadiga de alertas e melhorando a eficiência das equipes de segurança. A evolução da segurança de endpoints, impulsionada pela IA comportamental e automação, promete transformar a forma como as organizações gerenciam suas defesas cibernéticas.

Música gerada por IA é problemática quando finge ser artista real

A música gerada por inteligência artificial (IA) está se tornando cada vez mais comum, mas não necessariamente popular. Recentemente, a cantora folk inglesa Emily Portman se deparou com um álbum falso, intitulado ‘Orca’, que foi lançado sob seu nome sem sua autorização. Esse incidente destaca um problema crescente: a imitação de artistas por meio de IA, levando a um roubo de identidade digital. Outros artistas, como Josh Kaufman e Blaze Foley, também foram vítimas desse fenômeno. A situação se agrava com a dificuldade das plataformas de streaming em monitorar as 99.000 novas músicas carregadas diariamente, muitas vezes sem verificação adequada. Embora a IA possa ser uma ferramenta útil para músicos, seu uso para criar conteúdo falso representa um roubo de propriedade artística. A falta de consentimento e contexto altera a experiência do ouvinte, levando a uma desvalorização da autenticidade na música. A crescente aceitação de músicas geradas por IA pode resultar em uma saturação de conteúdo de baixa qualidade, prejudicando artistas reais e sua capacidade de se destacar no mercado.

Ferramentas Web impulsionadas por IA se tornam maliciosas - Hackers inserem malware em sites

Pesquisas recentes da Proofpoint revelam que criminosos cibernéticos estão explorando construtores de sites impulsionados por inteligência artificial, como o Lovable, para criar campanhas de phishing e redes de distribuição de malware. O Lovable permite que usuários gerem sites a partir de descrições em linguagem natural, o que facilitou a criação de sites de phishing profissionais em questão de minutos. Em fevereiro de 2025, uma operação de phishing afetou mais de 5.000 organizações, utilizando e-mails maliciosos que redirecionavam vítimas para páginas falsas de autenticação da Microsoft. Além disso, campanhas de fraude financeira e ataques focados em criptomoedas também foram documentados, com criminosos criando réplicas convincentes de plataformas de finanças descentralizadas. Após a divulgação das vulnerabilidades, o Lovable implementou sistemas de detecção em tempo real e planos para aumentar a segurança, mas a pesquisa destaca a crescente preocupação com o abuso de ferramentas de IA no cibercrime. Organizações devem considerar políticas de lista de permissões para plataformas de IA frequentemente abusadas, enquanto os fornecedores de segurança monitoram esses vetores de ameaça emergentes.

Nova técnica de injeção de prompt ameaça segurança de IA

Pesquisadores em cibersegurança apresentaram uma nova técnica de injeção de prompt chamada PromptFix, que engana modelos de inteligência artificial generativa (GenAI) para realizar ações indesejadas. Essa técnica, descrita pela Guardio Labs como uma versão moderna do golpe ClickFix, utiliza instruções maliciosas disfarçadas em verificações de CAPTCHA em páginas da web. O ataque explora navegadores impulsionados por IA, como o Comet da Perplexity, que prometem automatizar tarefas cotidianas, permitindo que interajam com páginas de phishing sem o conhecimento do usuário. A técnica leva a um novo cenário denominado Scamlexity, onde a conveniência da IA se combina com uma nova superfície de fraudes invisíveis. Os testes mostraram que o Comet, em várias ocasiões, completou transações em sites falsos sem solicitar confirmação do usuário. Além disso, a técnica pode ser usada para enganar assistentes de codificação, como o Lovable, levando à exposição de informações sensíveis. A pesquisa destaca a necessidade de sistemas de IA desenvolverem defesas proativas para detectar e neutralizar esses ataques, especialmente à medida que os criminosos cibernéticos utilizam plataformas GenAI para criar conteúdo de phishing realista e automatizar ataques em larga escala.

Revivendo Perigos Cibernéticos Antigos - Como IA e LLMs Ressuscitam Táticas de Cavalo de Troia

Pesquisadores em cibersegurança estão observando um preocupante ressurgimento de malwares clássicos do tipo cavalo de Troia, impulsionados por Modelos de Linguagem de Grande Escala (LLMs). Esses novos malwares, como JustAskJacky e TamperedChef, utilizam funcionalidades legítimas para se disfarçar, dificultando a detecção por métodos tradicionais. A evolução das ferramentas de desenvolvimento baseadas em IA permitiu que ameaçadores criassem códigos sofisticados que evitam sistemas de detecção baseados em assinaturas. Por exemplo, o TamperedChef permaneceu indetectado no VirusTotal por seis semanas, mesmo após ser desempacotado. As aplicações que promovem esses trojans apresentam uma aparência extremamente legítima, com sites profissionais e conteúdo convincente. Isso torna a análise comportamental crucial, já que a intuição do usuário sobre sites suspeitos não é mais suficiente. Em vez disso, técnicas de análise dinâmica e comportamental são necessárias para identificar padrões de comportamento suspeitos, como os observados no JustAskJacky. A combinação de técnicas clássicas de engano com a sofisticação moderna representa uma mudança significativa no cenário de ameaças, exigindo que organizações e usuários individuais adaptem suas estratégias de segurança.

Uso de VPNs para Acesso a Transmissões de Boxe: Questões de Segurança e Privacidade

O uso de VPNs para acessar transmissões de eventos esportivos, como a luta entre Moses Itauma e Dillian Whyte, levanta preocupações significativas sobre segurança e privacidade. Embora VPNs possam ser ferramentas eficazes para contornar bloqueios regionais e garantir acesso a conteúdos restritos, é crucial escolher provedores confiáveis para evitar riscos de segurança cibernética. VPNs gratuitas, em particular, podem não oferecer a proteção necessária, expondo usuários a vulnerabilidades e possíveis interceptações de dados.Especialistas em cibersegurança alertam que VPNs de baixa qualidade podem comprometer a experiência de streaming ao introduzir problemas de buffering e falhas de conexão, além de potencialmente expor informações pessoais dos usuários. Para garantir uma navegação segura e sem interrupções, recomenda-se optar por serviços VPN pagos e bem avaliados, que oferecem criptografia robusta e servidores otimizados para streaming, como NordVPN e Surfshark. A escolha de um VPN adequado é essencial para proteger dados pessoais e garantir uma experiência de visualização segura e de alta qualidade.

Campanha de Phishing com IA Alvo de Alerta no Brasil

Pesquisadores de cibersegurança estão soando o alarme sobre uma campanha de phishing que utiliza ferramentas de inteligência artificial generativa para criar páginas falsas que imitam agências do governo brasileiro. Essas páginas enganosas, que se passam por sites do Departamento Estadual de Trânsito e do Ministério da Educação, visam coletar informações pessoais sensíveis e induzir usuários a realizar pagamentos indevidos através do sistema PIX. A campanha é impulsionada por técnicas de envenenamento de SEO, aumentando a visibilidade dos sites fraudulentos e, consequentemente, o risco de sucesso dos ataques.

Tentativa de Ransomware Alvo de Empresa de Petróleo no Paquistão

A Pakistan Petroleum Limited (PPL), uma empresa de exploração de petróleo e gás, foi alvo de um ataque de ransomware em partes de sua infraestrutura de TI, detectado em 6 de agosto de 2025. Apesar da seriedade da ameaça, a empresa conseguiu conter rapidamente o incidente, garantindo que nenhum sistema crítico ou dados sensíveis fossem comprometidos. Este evento ressalta a importância de protocolos de cibersegurança robustos e a necessidade de vigilância constante contra ameaças sofisticadas de ransomware, que continuam a evoluir e a representar riscos significativos para organizações em todo o mundo.

Grave Vazamento Expõe Dados Sensíveis de Quase 870 Mil Indivíduos

A Universidade de Columbia confirmou um vazamento de dados significativo que comprometeu informações pessoais de 868.969 indivíduos em todo o país, incluindo 2.026 residentes do Maine. Este incidente, classificado como uma violação de sistema externo, ocorreu entre 16 de maio e 6 de junho de 2025, mas só foi descoberto em 8 de julho de 2025. A violação representa um dos maiores vazamentos de dados no setor de educação superior nos últimos anos, destacando a crescente ameaça de cibercriminosos que exploram vulnerabilidades em infraestruturas de rede de instituições renomadas.Em resposta ao incidente, a Universidade de Columbia tomou medidas rápidas para conter a violação e iniciou uma investigação forense abrangente para entender o escopo completo do comprometimento. Além disso, a universidade está oferecendo 24 meses de monitoramento de crédito e serviços de proteção contra roubo de identidade para todos os indivíduos afetados, em parceria com a Kroll, LLC. Este pacote de proteção excede os padrões típicos da indústria, que geralmente oferecem períodos de proteção de 12 meses, sublinhando a gravidade do vazamento e o compromisso da universidade em mitigar os riscos para os afetados.

Vulnerabilidade Crítica no Windows Permite Escalonamento de Privilégios

Uma nova técnica de bypass do Controle de Conta de Usuário (UAC) no Windows foi revelada, utilizando o Editor de Caracteres Privados para permitir que atacantes obtenham privilégios elevados sem o consentimento do usuário. Esta vulnerabilidade, divulgada pelo pesquisador de segurança Matan Bahar, explora a configuração de manifesto do aplicativo eudcedit.exe, um utilitário legítimo do Windows, para contornar mecanismos de segurança críticos. A técnica é alarmante, pois utiliza um programa confiável que normalmente não levantaria suspeitas, permitindo que invasores que já tenham acesso inicial escalem seus privilégios de forma discreta e eficaz.

Vulnerabilidades Críticas em Sistemas de Controle Industrial Ameaçam Infraestruturas Vitais

A Agência de Segurança Cibernética e de Infraestrutura (CISA) emitiu, em 7 de agosto de 2025, dez novos avisos sobre vulnerabilidades em Sistemas de Controle Industrial (ICS), destacando lacunas significativas de segurança em setores como manufatura, automação predial e infraestrutura de telecomunicações. Estas vulnerabilidades representam um risco urgente, pois podem permitir acesso não autorizado a componentes críticos de infraestrutura, comprometendo a segurança e a operação de sistemas essenciais. Entre os sistemas afetados estão o DIAView da Delta Electronics, os controladores FX80 e FX90 da Johnson Controls, e os telefones IP da Yealink, todos suscetíveis a ataques de execução remota de código e negação de serviço.Os avisos também incluem atualizações para vulnerabilidades previamente identificadas, como nos sistemas de monitoramento Instantel Micromate e nas soluções digitais da Mitsubishi Electric, indicando preocupações de segurança contínuas. A presença de dispositivos orientados ao consumidor, como aplicativos móveis da Dreame Technology, ressalta a crescente superfície de ataque em ambientes industriais. Especialistas enfatizam a necessidade de medidas preventivas urgentes para mitigar esses riscos e proteger infraestruturas críticas de possíveis explorações maliciosas.

Cibercriminosos Desafiam Agências de Segurança com Ataques Sofisticados

O grupo de cibercriminosos conhecido como ShinyHunters continua a desafiar as principais agências de segurança, incluindo a NSA e o FBI, com ataques cada vez mais sofisticados. Em uma recente declaração, membros do grupo afirmaram que suas táticas avançadas, como o uso de vozes geradas por IA, tornam as tentativas de rastreamento e identificação ineficazes. Essa confiança na tecnologia de ponta para evitar a detecção representa uma ameaça crescente para empresas e governos, que precisam reforçar suas defesas cibernéticas para mitigar riscos significativos de vazamentos de dados e extorsões.Além disso, o grupo tem como alvo grandes corporações, como a LVMH, controladora de marcas de luxo como Dior e Tiffany, que já foram vítimas de suas campanhas de extorsão. A insistência do ShinyHunters em continuar suas operações, apesar da pressão de gigantes corporativos e das autoridades, destaca a urgência de medidas preventivas robustas e a necessidade de uma colaboração internacional mais eficaz para combater essas ameaças cibernéticas. As organizações devem estar em alerta máximo e investir em tecnologias de segurança avançadas para proteger seus dados e operações contra esses ataques devastadores.

Desmantelamento do BlackSuit Ransomware: Um Golpe Crítico Contra o Crime Cibernético

Em uma operação internacional coordenada, autoridades federais dos Estados Unidos, em parceria com a Europol, desmantelaram a infraestrutura crítica do grupo de ransomware BlackSuit. Este grupo, sucessor do Royal ransomware, utilizava táticas sofisticadas de dupla extorsão para atacar mais de 450 organizações, incluindo setores críticos como saúde, educação e energia. A operação resultou na apreensão de servidores, domínios e ativos digitais, marcando um avanço significativo na luta contra ameaças de ransomware, que têm causado impactos financeiros devastadores e riscos à segurança nacional.

Grave Vazamento de Dados Afeta Clientes da KLM e Air France

Um vazamento de dados impactante foi relatado pela KLM e Air France, envolvendo acesso não autorizado a informações de clientes em uma plataforma externa de atendimento ao cliente. Embora os sistemas internos das companhias aéreas não tenham sido comprometidos e dados sensíveis como senhas e informações de pagamento não tenham sido expostos, o incidente faz parte de uma onda alarmante de ataques relacionados ao Salesforce, conduzidos pelo grupo ShinyHunters.

As companhias aéreas tomaram medidas imediatas para interromper o acesso e prevenir futuros incidentes, além de notificar as autoridades nacionais de proteção de dados na Holanda e na França. Este vazamento destaca a crescente ameaça de ataques cibernéticos sofisticados que visam plataformas externas, sublinhando a necessidade urgente de medidas preventivas robustas e governança de segurança cibernética eficaz para proteger dados de clientes.

Grave Aumento de Vazamento de Credenciais Ameaça Segurança Corporativa

O vazamento de credenciais corporativas se tornou uma ameaça crescente e alarmante, com um aumento de 160% em 2025 em comparação ao ano anterior, segundo dados da Cyberint. Este fenômeno, impulsionado por automação e acessibilidade, representa um risco significativo para as organizações, uma vez que credenciais vazadas são frequentemente utilizadas para invasões de contas, campanhas de phishing e extorsão. A facilidade com que atacantes de baixo nível podem acessar e explorar essas informações, muitas vezes vendidas em mercados clandestinos, destaca a urgência de medidas preventivas robustas para mitigar esse perigo.

Pacotes Maliciosos no RubyGems: Perigo de Roubo de Credenciais

Uma nova ameaça alarmante foi identificada no ecossistema RubyGems, onde 60 pacotes maliciosos foram descobertos se passando por ferramentas de automação para redes sociais e blogs. Desde março de 2023, esses pacotes têm sido usados para roubar credenciais de usuários desavisados, com mais de 275.000 downloads registrados. Os pacotes, que prometem funcionalidades como postagens em massa, na verdade contêm códigos ocultos que exfiltram nomes de usuário e senhas para servidores controlados por cibercriminosos, representando um risco significativo para a segurança dos dados dos usuários.A operação, que se concentra principalmente em usuários sul-coreanos, utiliza interfaces em coreano e servidores com domínios .kr para capturar informações sensíveis. Essa campanha sofisticada e persistente destaca a necessidade urgente de medidas preventivas e de segurança robustas para proteger sistemas contra infostealers disfarçados de ferramentas legítimas. Especialistas em segurança cibernética alertam para o impacto devastador que tais ataques podem ter, especialmente em usuários que dependem dessas ferramentas para campanhas de marketing e SEO, muitas vezes sem perceber o perigo iminente que enfrentam.

Lançamento do ChatGPT-5: Potenciais Riscos de Segurança e Privacidade

O lançamento do ChatGPT-5 pela OpenAI traz à tona preocupações sérias sobre segurança e privacidade, especialmente devido à sua capacidade de se conectar a contas do Google, como Gmail e Google Calendar. Essa funcionalidade, embora ofereça conveniência, também aumenta o risco de exposição de dados pessoais e sensíveis, caso medidas de segurança robustas não sejam implementadas adequadamente. Especialistas em cibersegurança alertam que a integração com serviços de terceiros pode ser um vetor de ataque para cibercriminosos, que buscam explorar vulnerabilidades em sistemas interconectados.

Técnica de Evasão em Chamadas Fantasmas Ameaça Segurança em Plataformas de Videoconferência

Pesquisadores da Praetorian alertam sobre a técnica de evasão conhecida como Chamadas Fantasmas, que explora plataformas de videoconferência como Microsoft Teams e Zoom para realizar ataques de comando e controle sem detecção. Ao sequestrar credenciais temporárias TURN, os cibercriminosos conseguem estabelecer túneis entre o host comprometido e suas máquinas, utilizando a infraestrutura confiável dessas plataformas para mascarar suas atividades maliciosas. Este método de ataque é particularmente preocupante, pois aproveita a infraestrutura já permitida por firewalls corporativos, proxies e inspeção TLS, tornando-se invisível para as defesas tradicionais.A técnica de Chamadas Fantasmas não depende de vulnerabilidades específicas a serem corrigidas, mas sim da implementação de salvaguardas adicionais por parte dos fornecedores para prevenir tais ataques. A natureza criptografada e ofuscada do tráfego de videoconferência, muitas vezes protegido por AES ou outras criptografias fortes, dificulta ainda mais a detecção de atividades maliciosas. Com credenciais TURN expirando em dois a três dias, os túneis são de curta duração, mas a ameaça permanece significativa, exigindo atenção urgente das organizações para mitigar riscos de exfiltração de dados e outras consequências graves.

Preocupações com Privacidade e Desempenho no Uso do Gaming Copilot da Microsoft

A Microsoft lançou o Gaming Copilot, um assistente de inteligência artificial para jogadores, na Game Bar do Windows 11, atualmente em fase de testes beta. Embora a ferramenta prometa ajudar jogadores a superar desafios em jogos sem a necessidade de alternar para um navegador, surgem preocupações sobre a privacidade dos usuários, já que a IA monitora a atividade de jogo para oferecer assistência. Além disso, há receios sobre o impacto no desempenho e na vida útil da bateria de dispositivos portáteis de jogos, uma vez que o recurso adiciona uma carga extra ao sistema durante o jogo.

Vulnerabilidade Crítica na Plataforma Akamai Permite Solicitações Maliciosas Ocultas

Uma vulnerabilidade significativa de HTTP Request Smuggling, identificada como CVE-2025-32094, foi descoberta na plataforma Akamai em março de 2025. Esta falha, que envolvia solicitações OPTIONS combinadas com técnicas obsoletas de quebra de linha, foi completamente resolvida pela Akamai, sem evidências de exploração bem-sucedida. A vulnerabilidade surgiu de uma interação complexa entre dois defeitos específicos na implementação do sistema de processamento de solicitações HTTP/1.x da Akamai, permitindo que atacantes introduzissem solicitações maliciosas ocultas no corpo da solicitação e potencialmente burlassem controles de segurança.A resposta coordenada da Akamai à CVE-2025-32094 exemplifica práticas eficazes de gerenciamento de vulnerabilidades na indústria de cibersegurança. Após receber o relatório do programa de recompensas por bugs, a empresa implementou uma correção em toda a plataforma, protegendo todos os clientes e mantendo uma comunicação transparente por meio de atualizações regulares. A linha do tempo de divulgação foi coordenada com a apresentação de pesquisa de James Kettle na Black Hat 2025, permitindo uma conscientização pública abrangente sobre a metodologia de ataque.

Pacotes Maliciosos em Go Ameaçam Sistemas Windows e Linux

Pesquisadores de cibersegurança identificaram 11 pacotes maliciosos desenvolvidos em Go que representam uma ameaça significativa para sistemas Windows e Linux. Esses pacotes são projetados para baixar cargas adicionais de servidores remotos e executá-las silenciosamente, comprometendo a segurança dos sistemas. A técnica utilizada pelos cibercriminosos envolve a execução de um shell que busca cargas de segundo estágio de endpoints de comando e controle, permitindo a coleta de informações do host e o acesso a dados de navegadores web. A natureza descentralizada do ecossistema Go facilita a importação direta de módulos de repositórios GitHub, aumentando o risco de desenvolvedores integrarem código malicioso inadvertidamente em seus projetos.A descoberta destaca os riscos contínuos à cadeia de suprimentos, exacerbados pela natureza multiplataforma do Go, que facilita a propagação de malware. A confusão gerada por nomes de módulos semelhantes, mas não necessariamente maliciosos, é explorada por atacantes para aumentar a probabilidade de integração de código destrutivo. A situação é agravada pela reutilização de servidores de comando e controle, sugerindo a ação de um único ator de ameaça. É crucial que desenvolvedores e organizações adotem medidas preventivas rigorosas para mitigar esses riscos e proteger seus ambientes de desenvolvimento e produção.

Exploit de Injeção de Prompt em Gemini Rouba Dados Sensíveis de Usuários

Pesquisadores de cibersegurança revelaram um ataque sofisticado chamado TARA (Targeted Promptware Attack) que compromete assistentes alimentados pelo Gemini do Google através de convites de e-mail e eventos de calendário aparentemente inocentes. Liderados pelo renomado especialista em segurança Ben Nassi, da Universidade de Tel-Aviv, o estudo demonstra como cibercriminosos podem manipular sistemas de IA para realizar ações maliciosas, desde roubo de dados até o controle de dispositivos domésticos inteligentes, representando uma ameaça crescente à segurança digital e física dos usuários.

Hackers Exploram Plataformas de Conferência para Canais C2 Ocultos

Pesquisadores de segurança revelaram uma técnica de ataque sofisticada que utiliza plataformas de conferência web para estabelecer canais de comando e controle (C2) ocultos. Esta abordagem permite que cibercriminosos disfarcem tráfego malicioso como reuniões online legítimas, potencialmente burlando medidas tradicionais de segurança de rede. A técnica, apresentada na Black Hat USA 2025, destaca como protocolos de comunicação em tempo real podem ser explorados para criar sessões C2 interativas de alta largura de banda, que se misturam de forma indistinguível com o tráfego de colaboração empresarial normal.

Ataque a Active Directory Bypassa Autenticação e Rouba Dados Sensíveis

Pesquisador de segurança Dirk-Jan Mollema, da Outsider Security, revelou técnicas avançadas de movimento lateral que permitem a atores de ameaça comprometer a infraestrutura de nuvem da Microsoft através de vulnerabilidades no Active Directory local. Durante sua apresentação na Black Hat USA 2025, Mollema destacou lacunas críticas de segurança em ambientes híbridos de AD que podem permitir que atacantes contornem a autenticação multifator e exfiltrem dados sensíveis sem detecção, explorando relações de confiança entre domínios locais e recursos na nuvem.

Vulnerabilidade Crítica no Exchange Server Ameaça Segurança de Ambientes Híbridos

A Microsoft divulgou um alerta sobre uma vulnerabilidade de alta gravidade, identificada como CVE-2025-53786, que afeta versões on-premise do Exchange Server. Essa falha, com um CVSS de 8.0, pode permitir que um atacante, já com acesso administrativo, escale privilégios dentro do ambiente de nuvem conectado da organização sem deixar rastros facilmente detectáveis. A ameaça é particularmente preocupante em implantações híbridas, onde o Exchange Server e o Exchange Online compartilham o mesmo serviço principal, aumentando o risco de comprometimento da integridade de identidade do serviço Exchange Online se não corrigida.A Agência de Segurança Cibernética e de Infraestrutura dos EUA (CISA) destacou a importância de aplicar correções, como o Hot Fix de abril de 2025, e revisar as configurações de segurança para implantações híbridas. A Microsoft também anunciou medidas temporárias para bloquear o tráfego de Exchange Web Services (EWS) usando o serviço principal compartilhado, visando melhorar a segurança do ambiente híbrido. Organizações são instadas a atualizar suas configurações e descontinuar o uso de servidores Exchange ou SharePoint que atingiram o fim de vida ou serviço, para mitigar riscos adicionais de exploração por atores maliciosos.

Ameaças Crescentes: Ataques na Nuvem Impulsionados por IA

Em 2025, os ataques na nuvem estão evoluindo em uma velocidade alarmante, com a inteligência artificial (IA) sendo utilizada tanto como arma quanto como escudo. A recente evolução dos ataques, como a campanha CRYSTALRAY, demonstra um nível de coordenação e rapidez que seria impossível sem a automação. Esses ataques, que incluem reconhecimento, movimento lateral e coleta de credenciais, representam uma ameaça crescente para as empresas que dependem de soluções em nuvem. As equipes de segurança estão sendo desafiadas a adotar defesas em tempo real e contextualmente conscientes para enfrentar essas ameaças que operam em velocidades de máquina.Por outro lado, a própria IA se tornou um alvo crítico, necessitando de proteção robusta. O aumento de 500% nas cargas de trabalho em nuvem contendo pacotes de IA/ML em 2024 destaca a adoção massiva dessas tecnologias, mas também expõe novas superfícies de ataque. Para mitigar esses riscos, é essencial implementar medidas de segurança como a autenticação de APIs, endurecimento de configurações e a aplicação do princípio de menor privilégio. A segurança na nuvem deve evoluir para ser tão ágil quanto as ameaças que enfrenta, garantindo que as joias digitais da era da IA sejam devidamente protegidas contra cibercriminosos cada vez mais sofisticados.

Vulnerabilidade Crítica em SonicWall Ameaça Segurança de Firewalls

A SonicWall revelou que o recente aumento de atividades maliciosas direcionadas aos seus firewalls Gen 7 e mais recentes, com SSL VPN habilitado, está relacionado a uma vulnerabilidade antiga, agora corrigida, e ao uso repetido de senhas. A vulnerabilidade, identificada como CVE-2024-40766, foi divulgada pela primeira vez em agosto de 2024 e possui um escore CVSS de 9.3, indicando um risco elevado de acesso não autorizado aos dispositivos. A empresa está investigando menos de 40 incidentes relacionados a essa atividade, muitos dos quais estão associados a migrações de firewalls Gen 6 para Gen 7 sem redefinição das senhas dos usuários locais, uma ação recomendada crucial.Para mitigar os riscos, a SonicWall recomenda a atualização do firmware para a versão SonicOS 7.3.0, redefinição de todas as senhas de contas de usuários locais com acesso SSLVPN, habilitação de proteção contra botnets e filtragem Geo-IP, além da implementação de autenticação multifator e políticas de senhas fortes. Este desenvolvimento ocorre em meio a um aumento nos ataques que exploram dispositivos SonicWall SSL VPN para ataques de ransomware Akira, destacando a necessidade urgente de medidas preventivas robustas para proteger as infraestruturas de rede.

NVIDIA Alerta para Riscos de Vulnerabilidades em Hardware com Backdoors

A NVIDIA emitiu uma declaração enfática rejeitando a inclusão de backdoors e kill switches em seus hardwares de GPU, destacando que tais características comprometeriam gravemente a infraestrutura de cibersegurança global. A empresa argumenta que a introdução de vulnerabilidades embutidas nos componentes críticos de computação representa uma ameaça perigosa, criando vetores de ataque permanentes que poderiam ser explorados por atores maliciosos. Essa posição surge em meio a discussões políticas crescentes sobre mecanismos de controle remoto em hardwares essenciais, com a NVIDIA defendendo que tais propostas são um desvio perigoso dos princípios de segurança estabelecidos.A empresa enfatiza a importância do princípio de ‘defesa em profundidade’, que busca eliminar vulnerabilidades de ponto único através de uma abordagem de segurança em camadas. A introdução de vulnerabilidades deliberadas em hardwares críticos, como GPUs, comprometeria não apenas sistemas individuais, mas também ecossistemas tecnológicos inteiros que dependem de computação acelerada por GPU. A NVIDIA defende soluções de software transparentes e ferramentas de monitoramento que aumentem a segurança do sistema sem comprometer a integridade do hardware, rejeitando comparações com funcionalidades de smartphones que operam com o consentimento do usuário.

Ameaça Crescente: Ataques à Cadeia de Suprimentos Python Colocam Sistemas em Risco

Os ataques à cadeia de suprimentos envolvendo pacotes Python estão se tornando uma ameaça alarmante e crescente em 2025. Criminosos cibernéticos estão explorando vulnerabilidades em repositórios de código aberto, como o Python Package Index (PyPI), para introduzir pacotes maliciosos que passam despercebidos até causarem danos significativos. Um exemplo grave ocorreu em dezembro de 2024, quando o pacote Ultralytics YOLO, amplamente utilizado em aplicações de visão computacional, foi comprometido e baixado milhares de vezes antes de ser detectado. Este cenário destaca a urgência de tratar a segurança da cadeia de suprimentos Python como uma prioridade crítica.Os métodos utilizados pelos atacantes incluem técnicas como typo-squatting, repo-jacking e slop-squatting, que exploram falhas na gestão de pacotes e repositórios. Além disso, até mesmo imagens oficiais do contêiner Python contêm vulnerabilidades críticas, com mais de 100 CVEs de alta gravidade identificados. Para mitigar esses riscos, é essencial que desenvolvedores e engenheiros de segurança adotem ferramentas e práticas robustas, como pip-audit, Sigstore e SBOMs, para garantir a integridade do código e proteger suas aplicações contra essas ameaças sofisticadas e em rápida evolução.