Inteligência Artificial

A Revolução da Cibersegurança Como a IA Está Transformando MSSPs

Em 2026, os provedores de segurança gerenciados (MSSPs) enfrentam um desafio crescente: a quantidade excessiva de alertas e a escassez de analistas, enquanto os clientes exigem proteção de nível CISO com orçamentos de pequenas e médias empresas (PMEs). A solução para esse dilema pode estar na automação por inteligência artificial (IA), que promete revolucionar a entrega de serviços de segurança. Em vez de simplesmente adicionar mais analistas a cada novo cliente, a IA pode realizar avaliações, benchmarking e relatórios em minutos, permitindo que as equipes se concentrem em estratégias mais complexas. O caso de Chad Robinson, CISO da Secure Cyber Defense, ilustra essa mudança: ao implementar a plataforma de IA da Cynomi, sua equipe não apenas automatizou relatórios, mas também transformou analistas juniores em ‘CISOs virtuais’, aumentando a cobertura e a receita de serviços de consultoria. Os primeiros adotantes dessa tecnologia já estão observando ganhos significativos nas margens e ciclos de integração mais rápidos, sem a necessidade de aumentar a equipe. O artigo destaca a importância de adotar a IA para escalar negócios de segurança sem aumentar a folha de pagamento, enfatizando que os MSSPs que prosperarão em 2026 não serão necessariamente os maiores, mas os mais inteligentes.

Malware VoidLink A Revolução da IA na Cibersegurança

O malware VoidLink, um sofisticado framework para Linux, foi desenvolvido com a ajuda de um modelo de inteligência artificial (IA), segundo a Check Point Research. Identificado como um dos primeiros exemplos de malware avançado gerado em grande parte por IA, o VoidLink possui mais de 88.000 linhas de código e foi projetado para acesso furtivo a ambientes em nuvem baseados em Linux. A análise sugere que um desenvolvedor experiente, possivelmente de origem chinesa, utilizou um agente de codificação chamado TRAE SOLO para acelerar o desenvolvimento, que levou menos de uma semana para criar um protótipo funcional. A pesquisa também revelou que a documentação interna do projeto, escrita em chinês, apresenta características típicas de conteúdo gerado por IA, como formatação consistente e detalhes meticulosos. Embora ainda não tenham sido observadas infecções reais, o desenvolvimento do VoidLink representa uma mudança significativa na forma como malware avançado pode ser criado, permitindo que indivíduos com menos recursos realizem ataques complexos de forma rápida e eficiente. Especialistas alertam que a IA está transformando a cibercriminalidade, tornando ferramentas sofisticadas acessíveis a qualquer um com um cartão de crédito.

Google não planeja anúncios no Gemini, enquanto ChatGPT testa publicidade

Recentemente, a OpenAI começou a testar anúncios no ChatGPT nos Estados Unidos, tanto para usuários da conta gratuita quanto para assinantes do plano Go, que custa US$ 8 por mês. Em contraste, o CEO da Google DeepMind, Demis Hassabis, afirmou que o Gemini, a nova plataforma de inteligência artificial da Google, não terá anúncios por enquanto. Durante o Fórum Econômico Mundial em Davos, Hassabis comentou que achou interessante a decisão da OpenAI de introduzir anúncios tão cedo, sugerindo que isso pode ser uma estratégia para aumentar a receita. O ChatGPT planeja implementar anúncios em breve, mas apenas para usuários gratuitos e do plano Go, enquanto as contas pagas, como Plus e Pro, permanecerão livres de publicidade. Os anúncios aparecerão apenas quando houver produtos ou serviços patrocinados relevantes ao tema da conversa, e os usuários poderão entender o motivo da exibição do anúncio e fornecer feedback. No entanto, não haverá anúncios em discussões sobre saúde, saúde mental ou política. Essa movimentação levanta questões sobre a monetização de plataformas de IA e suas implicações para os usuários e o mercado.

Malware VoidLink Ameaça Avançada Desenvolvida com IA

O malware VoidLink, recentemente descoberto, é um framework avançado focado em ambientes de nuvem, desenvolvido por um único criador com auxílio de um modelo de inteligência artificial. De acordo com a Check Point Research, o VoidLink é um malware para Linux que inclui carregadores personalizados, implantes, módulos de rootkit para evasão e uma variedade de plugins que ampliam suas funcionalidades. A pesquisa sugere que o desenvolvedor possui forte proficiência em várias linguagens de programação, possivelmente originando-se da China.

ALOHA reduz tempo de análise de ciberataques de semanas para horas

O Laboratório Nacional do Noroeste do Pacífico (PNNL) dos Estados Unidos desenvolveu um sistema inovador chamado ALOHA, que utiliza inteligência artificial para emular ameaças digitais de forma mais eficiente. Com essa nova ferramenta, o tempo necessário para recriar ataques e testar defesas foi reduzido de meses para apenas algumas horas. O ALOHA, que se baseia no modelo de linguagem Claude, automatiza a emulação de ameaças e gera até 20 táticas diferentes a partir de um malware original, permitindo que pesquisadores identifiquem vulnerabilidades e testem novas defesas de maneira mais rápida e eficaz. Essa inovação é especialmente relevante em um cenário onde a cibersegurança se tornou uma corrida armamentista entre hackers e organizações. O uso de IA generativa já é uma prática comum, mas o ALOHA promete otimizar ainda mais esse processo, ajudando equipes de segurança a responderem rapidamente a novas ameaças. A ferramenta também se integra com a plataforma Caldera, da MITRE, que já realiza parte desse trabalho, mas de forma mais lenta e detalhada. Com a crescente complexidade dos ataques cibernéticos, a implementação de soluções como o ALOHA pode ser um divisor de águas na proteção de sistemas críticos.

Governança em escala é essencial para IA nas organizações

A inteligência artificial (IA) se tornou uma parte integral das operações empresariais, automatizando processos e auxiliando na tomada de decisões. No entanto, à medida que a IA acessa dados sensíveis e executa ações, ela se transforma em um vetor de risco potencial. Pesquisas da Tenable indicam que a IA pode ser manipulada para facilitar ataques internos, utilizando técnicas como injeção indireta de instruções. Isso altera a abordagem tradicional de segurança, que se focava apenas em invasões externas. A popularização de ferramentas no-code, que permitem que mais colaboradores criem agentes de IA, aumenta a exposição a riscos, como vazamentos de dados e fraudes financeiras. Para mitigar esses riscos, é crucial que as lideranças empresariais respondam a três perguntas fundamentais sobre o uso da IA em suas organizações. A governança deve ser proporcional ao impacto, envolvendo práticas como mapeamento de ferramentas, classificação de dados e monitoramento de interações. A maturidade em IA será medida não pela rapidez de adoção, mas pela capacidade de controle e segurança na sua implementação.

OpenAI começará a exibir anúncios no ChatGPT para usuários nos EUA

A OpenAI anunciou que começará a exibir anúncios no ChatGPT para usuários adultos logados nos Estados Unidos, tanto na versão gratuita quanto na versão ChatGPT Go, nas próximas semanas. A empresa garantiu que os dados e conversas dos usuários estão protegidos e não serão vendidos a anunciantes. A introdução de anúncios visa tornar os benefícios da inteligência artificial mais acessíveis e ajudar pequenas empresas a competir. Os anúncios aparecerão no final das conversas e serão claramente rotulados, sem influenciar as respostas do chatbot. Usuários em planos mais caros, como Plus e Pro, não verão anúncios. A OpenAI não especificou quais dados serão coletados para personalizar os anúncios, mas os usuários poderão entender o motivo pelo qual estão vendo determinados anúncios e poderão desativar a personalização. A decisão de incluir anúncios representa uma mudança significativa na estratégia da OpenAI, que até agora dependia principalmente de assinaturas. O CEO Sam Altman comentou que a empresa não aceitará dinheiro para influenciar as respostas do ChatGPT, enfatizando que a publicidade é uma alternativa para sustentar o alto custo do desenvolvimento da inteligência artificial.

OpenAI confirma anúncios no ChatGPT para usuários gratuitos

A OpenAI anunciou que o ChatGPT começará a exibir anúncios nas próximas semanas, mas assegurou que esses anúncios não influenciarão as respostas geradas pela inteligência artificial. Os anúncios aparecerão dentro das respostas, provavelmente na parte inferior, e serão visíveis apenas para usuários de contas gratuitas ou da versão ChatGPT Go. A empresa, apoiada pela Microsoft, argumenta que a inclusão de anúncios ajudará a financiar suas ambições em Inteligência Geral Artificial (AGI), que visa beneficiar toda a humanidade. Os anúncios serão claramente rotulados e não aparecerão em conversas que abordem tópicos sensíveis, como saúde ou política. Além disso, a OpenAI garantiu que as conversas dos usuários permanecerão privadas e que os dados não serão vendidos a anunciantes. Para aqueles que preferirem não ver anúncios, a empresa sugere considerar a atualização para a assinatura de $20 ou a mudança para alternativas como Claude. Essa mudança pode impactar a experiência do usuário e levanta questões sobre privacidade e monetização de dados.

PagBank intensifica segurança contra fraudes digitais em 2026

O PagBank anunciou um reforço nas suas medidas de cibersegurança no início de 2026, em resposta ao aumento das fraudes digitais no Brasil. O país, que ocupa a segunda posição mundial em ciberataques, registrou quase 7 milhões de tentativas de fraude no primeiro semestre de 2025, um aumento de 29,5% em relação ao ano anterior. Para combater essa situação, o PagBank implementou diversas funcionalidades de segurança, como alertas de login em dispositivos de risco, que notificam os usuários sobre tentativas de acesso suspeitas, e o uso de QR Codes para autenticação de transações. Além disso, a empresa introduziu a rede ‘Wi-Fi Seguro’, que protege os usuários em conexões públicas, e utiliza inteligência artificial para detectar comportamentos suspeitos e tentativas de engenharia social. A importância da vigilância constante por parte dos clientes também foi enfatizada, destacando que, apesar das tecnologias avançadas, o cuidado individual é crucial na prevenção de fraudes.

Riscos de Segurança em Fluxos de Trabalho com Inteligência Artificial

Com a crescente integração de assistentes de IA nas atividades diárias, a segurança cibernética deve ir além da proteção dos modelos de IA. Recentes incidentes revelaram que o maior risco reside nos fluxos de trabalho que cercam esses modelos. Dois complementos do Chrome, disfarçados de assistentes de IA, foram identificados como responsáveis por roubar dados de chat de mais de 900 mil usuários do ChatGPT e DeepSeek. Além disso, pesquisadores demonstraram como injeções de comandos ocultas em repositórios de código podem enganar assistentes de codificação da IBM, fazendo com que executem malware. Esses ataques não comprometeram os algoritmos de IA, mas exploraram o contexto em que operam. À medida que as empresas utilizam IA para automatizar tarefas, a segurança deve se concentrar na proteção dos fluxos de trabalho, e não apenas nos modelos. Isso implica em entender onde a IA é utilizada, restringir acessos desnecessários e monitorar comportamentos anômalos. Ferramentas como a Reco estão surgindo para ajudar a proteger esses fluxos de trabalho em tempo real, oferecendo visibilidade e controle sobre o uso de IA nas organizações.

Falsificação de identidade pode gerar prejuízo de US 17 bilhões em criptomoedas

Fraudes por falsificação de identidade em criptomoedas estão causando perdas significativas, com um prejuízo estimado em US$ 17 bilhões para 2026, conforme relatório da Chainalysis. Em 2025, foram desviados cerca de US$ 14 bilhões para contas criminosas, um aumento em relação aos US$ 13 bilhões de 2024. O crescimento alarmante de 1400% nos casos de falsificação de identidade é impulsionado por táticas de phishing e engenharia social, além do uso crescente de inteligência artificial (IA) por criminosos, que facilita ataques mais rápidos e coordenados. Os golpes que utilizam IA geraram em média US$ 3,2 milhões em criptomoedas por operação, evidenciando a industrialização da fraude. Especialistas alertam que a situação pode se agravar, exigindo atenção redobrada de usuários e empresas que operam no setor de moedas digitais.

Agentes de IA Riscos de Acesso e Escalonamento de Privilégios

Os agentes de inteligência artificial (IA) estão se tornando componentes essenciais nas operações diárias de segurança, engenharia e TI, atuando como intermediários de acesso em diversos sistemas. Esses agentes, que podem automatizar tarefas como provisionamento de contas e gerenciamento de mudanças, são projetados para operar com permissões amplas, o que pode obscurecer a visibilidade sobre quem está acessando o quê. Essa configuração, embora aumente a produtividade, introduz riscos significativos de escalonamento de privilégios, onde usuários com acesso limitado podem, indiretamente, acessar dados ou realizar ações que normalmente não teriam permissão. A falta de controle sobre as permissões dos agentes e a atribuição de atividades a eles, em vez de aos usuários, dificulta a detecção de abusos e a aplicação de políticas de segurança. Para mitigar esses riscos, é crucial que as equipes de segurança monitorem continuamente as permissões dos agentes e a relação entre as identidades dos usuários e os ativos críticos. A adoção segura de agentes de IA requer visibilidade e monitoramento contínuo para evitar que se tornem pontos cegos de segurança.

Campanhas de ciberataques visam modelos de linguagem de IA

Com a crescente popularidade das ferramentas de inteligência artificial (IA), cibercriminosos estão direcionando suas atenções para a exploração de vulnerabilidades em modelos de linguagem de grande escala (LLMs). Pesquisadores da GreyNoise identificaram duas campanhas de ataque que, juntas, contabilizam quase 100 mil tentativas de exploração. Os ataques, que ocorreram entre outubro de 2025 e janeiro de 2026, visaram principalmente empresas que utilizam esses modelos em suas operações diárias. A primeira campanha consistiu na injeção de domínios maliciosos, enquanto a segunda, considerada mais perigosa, focou em testar APIs de serviços de IA de grandes empresas como OpenAI e Google, buscando identificar quais modelos poderiam ser manipulados sem acionar alertas de segurança. Os especialistas alertam que esses ataques representam riscos significativos para a segurança corporativa, especialmente com a adoção crescente de IAs. Recomenda-se que as empresas implementem medidas de segurança mais robustas, como o bloqueio de endereços suspeitos e a configuração de alertas para respostas rápidas a possíveis ameaças.

Velho Manual, Nova Escala Ataques Otimizados em 2025

O artigo destaca que, apesar da segurança cibernética frequentemente discutir novas ameaças, os ataques mais eficazes em 2025 são semelhantes aos de 2015. Os invasores continuam a explorar pontos de entrada conhecidos, mas com maior eficiência. A cadeia de suprimentos é um foco crítico, como demonstrado pela campanha Shai Hulud NPM, onde um único pacote comprometido pode afetar milhares de projetos. A inteligência artificial facilitou a execução de ataques, permitindo que até indivíduos realizem operações complexas que antes exigiam grandes equipes. O phishing permanece uma ameaça significativa, pois os humanos continuam sendo o elo mais fraco, exemplificado por um ataque recente que comprometeu pacotes com milhões de downloads. Além disso, extensões de navegador maliciosas continuam a contornar os mecanismos de segurança das lojas oficiais. O artigo conclui que, em vez de buscar novas estratégias de defesa, é essencial corrigir os modelos de permissão e fortalecer a verificação da cadeia de suprimentos, priorizando a segurança básica.

Empresas finalmente agem para mitigar riscos de segurança em IA

Um novo relatório do Fórum Econômico Mundial (WEF) revela que as empresas estão começando a levar a sério os riscos de segurança associados à inteligência artificial (IA). Quase dois terços (64%) das empresas agora avaliam os riscos antes de implementar ferramentas de IA, um aumento significativo em relação a 37% no ano anterior. A pesquisa, realizada em colaboração com a Accenture, indica que 94% dos executivos acreditam que as ferramentas de IA serão o principal motor de mudança em suas estratégias de cibersegurança até 2026. Apesar do aumento na conscientização sobre as vulnerabilidades relacionadas à IA, como vazamentos de dados e fraudes, as empresas também estão adotando IA para combater essas ameaças, com 77% utilizando a tecnologia para melhorar a segurança cibernética. As aplicações mais comuns incluem a detecção de phishing (52%) e a automação de operações de segurança (43%). No entanto, desafios como a falta de habilidades e a necessidade de validação humana ainda impedem a adoção mais ampla da IA na segurança. O WEF prevê que ameaças como phishing convincente e fraudes automatizadas se tornarão mais prevalentes, destacando a necessidade urgente de as empresas se adaptarem a esse novo cenário de ameaças.

Agentes de IA Riscos de Segurança em Protocolos de Controle

Os agentes de inteligência artificial (IA) estão evoluindo rapidamente, não apenas escrevendo código, mas também executando-o. Ferramentas como Copilot, Claude Code e Codex agora conseguem construir, testar e implantar software em questão de minutos, o que, embora acelere o desenvolvimento, também cria lacunas de segurança que muitas equipes não percebem até que ocorra um problema. Um aspecto crítico que muitas organizações não estão protegendo adequadamente são os Protocolos de Controle de Máquinas (MCPs), que determinam quais comandos um agente de IA pode executar e quais ferramentas e APIs pode acessar. A falha CVE-2025-6514 exemplifica esse risco, onde um proxy OAuth confiável foi transformado em um vetor de execução remota de código, permitindo que a automação realizasse ações não intencionais em larga escala. Este cenário destaca a necessidade urgente de as equipes de segurança entenderem e protegerem esses sistemas de controle, pois, se um agente de IA pode executar comandos, também pode ser usado para realizar ataques. Um webinar está sendo oferecido para discutir esses riscos e como as organizações podem implementar controles práticos para garantir a segurança sem comprometer a velocidade de desenvolvimento.

Nova funcionalidade de IA promete melhorar a saúde dos usuários

A Anthropic lançou uma nova iniciativa chamada Claude for Healthcare, que permite aos usuários da plataforma Claude, nos EUA, acessar e entender melhor suas informações de saúde. Os assinantes dos planos Claude Pro e Max podem conectar seus resultados de exames e registros médicos através das integrações com HealthEx e Function, com suporte para Apple Health e Android Health Connect previsto para ser lançado em breve. A ferramenta é capaz de resumir o histórico médico dos usuários, explicar resultados de exames em linguagem simples, detectar padrões em métricas de saúde e preparar perguntas para consultas médicas. A Anthropic enfatiza que as integrações são projetadas para serem privadas, permitindo que os usuários escolham quais informações compartilhar e que os dados de saúde não são utilizados para treinar modelos de IA. Este desenvolvimento ocorre em um contexto de crescente preocupação sobre a precisão das informações de saúde fornecidas por sistemas de IA, especialmente após a remoção de resumos de IA do Google que apresentavam informações incorretas. A Anthropic também ressalta que os resultados gerados devem ser revisados por profissionais qualificados antes de qualquer decisão de saúde.

Inteligência Artificial vai potencializar golpes em 2026 saiba como se proteger

Em 2026, os golpes digitais devem se intensificar, impulsionados pelo uso da inteligência artificial (IA) por criminosos. Daniel Barbosa, pesquisador de segurança da ESET no Brasil, destaca que a IA está sendo utilizada para criar e-mails e sites falsos com maior precisão, tornando as fraudes mais convincentes. Os golpistas coletam dados de vazamentos para personalizar suas abordagens, tornando-as mais atraentes para as vítimas. Além disso, a evolução dos deepfakes dificulta a identificação de fraudes visuais, exigindo que os usuários adotem camadas adicionais de segurança. Barbosa recomenda que qualquer contato recebido de forma passiva deve ser tratado com desconfiança. Os golpistas também exploram sazonalidades, como o pagamento de impostos, para enganar as vítimas. Para se proteger, é essencial verificar sempre as URLs, desconfiar de solicitações inesperadas e validar transações financeiras com um canal de comunicação diferente. Caso alguém seja vítima de um golpe, é importante acionar imediatamente o Mecanismo Especial de Devolução (MED) e registrar um boletim de ocorrência.

Previsões de Cibersegurança para 2026 Riscos Emergentes e Estratégias

À medida que as organizações se preparam para 2026, as previsões de cibersegurança estão em alta, mas muitas estratégias ainda são moldadas por especulações. Um webinar da Bitdefender busca esclarecer essas previsões, focando em dados reais e riscos emergentes. O evento abordará três tendências principais: a evolução do ransomware, que está se tornando mais direcionado e impactante; a adoção descontrolada de inteligência artificial (IA), que gera uma crise interna de segurança; e a possibilidade de ataques orquestrados por IA. Os especialistas da Bitdefender discutirão a necessidade de ceticismo em relação à capacidade de ataques adaptativos baseados em IA no curto prazo. O webinar visa ajudar líderes de segurança a diferenciar previsões sensacionalistas de aquelas que realmente devem influenciar suas estratégias de segurança. Os participantes aprenderão a justificar investimentos em segurança com base em riscos reais e a atualizar suas defesas antes que novas técnicas de ataque se tornem comuns.

Hackers transformam robôs em máquinas violentas em teste de segurança

Especialistas de segurança da China alertaram para o risco de robôs humanoides serem sequestrados por cibercriminosos através de comandos de voz. Durante a GEEKCon, uma competição de hacking em Xangai, foi demonstrado como falhas em sistemas de controle de robôs podem ser exploradas para causar danos físicos. A equipe de pesquisa DARKNAVY mostrou que um robô humanoide, disponível no mercado, pode ser controlado por um simples comando de voz, transformando-o rapidamente em uma ameaça. Além disso, o robô comprometido pode infectar outros androides via conexões sem fio de curto alcance, criando uma rede de máquinas potencialmente perigosas. A demonstração incluiu um comando violento que fez o robô atacar um manequim, evidenciando o risco real que essa vulnerabilidade representa para a segurança pública. Os especialistas ressaltaram a necessidade de regulamentação mais rigorosa para a implementação de robôs em ambientes públicos e industriais, uma vez que a crença de que mantê-los desconectados seria suficiente para evitar riscos não se sustenta diante das novas tecnologias.

Inteligência Artificial nas Operações de Segurança Desafios e Oportunidades

A inteligência artificial (IA) está rapidamente se integrando às operações de segurança, mas muitas equipes ainda enfrentam dificuldades para transformar experimentos iniciais em valor operacional consistente. De acordo com a pesquisa SANS SOC de 2025, 40% dos Centros de Operações de Segurança (SOCs) utilizam ferramentas de IA ou aprendizado de máquina (ML) sem integrá-las formalmente às suas operações. Isso resulta em um uso informal e muitas vezes pouco confiável da IA, sem um modelo claro de como validar seus resultados. A IA pode melhorar a capacidade e a satisfação das equipes, mas deve ser aplicada a problemas bem definidos e acompanhada de processos de revisão rigorosos. O artigo destaca cinco áreas onde a IA pode oferecer suporte confiável: engenharia de detecção, caça a ameaças, desenvolvimento e análise de software, automação e orquestração. A aplicação eficaz da IA requer que as equipes definam claramente os problemas e validem as saídas, evitando a dependência excessiva da automação. A abordagem deve ser de refinamento de processos existentes, em vez de criar novas categorias de trabalho.

Ameaças de Segurança em Sistemas de IA Um Alerta Urgente

Em 2024, a segurança cibernética enfrentou um aumento alarmante de 25% em vazamentos de dados, totalizando 23,77 milhões de segredos expostos, devido a falhas em sistemas de inteligência artificial (IA). Incidentes como a invasão da biblioteca Ultralytics AI, que instalou código malicioso para mineração de criptomoedas, e a exposição de 2.349 credenciais por pacotes Nx, destacam a vulnerabilidade das organizações, mesmo aquelas com programas de segurança robustos. Os frameworks tradicionais de segurança, como NIST e ISO, não foram projetados para lidar com as especificidades das ameaças de IA, resultando em lacunas significativas na proteção. Por exemplo, ataques de injeção de prompt e envenenamento de modelo exploram falhas que não são abordadas por controles convencionais. A falta de diretrizes específicas para esses vetores de ataque torna as empresas vulneráveis, mesmo após auditorias e conformidade com normas de segurança. A situação é crítica, pois a detecção de ataques relacionados à IA pode levar ainda mais tempo, exacerbando o risco. A crescente adoção de pacotes de IA em ambientes de nuvem aumenta ainda mais a superfície de ataque, exigindo uma reavaliação urgente das estratégias de segurança.

Aumento de 62 em fraudes de investimento com uso de IA

O esquema de fraude de investimento conhecido como Nomani teve um aumento de 62% em suas atividades, conforme dados da ESET. Inicialmente documentado em dezembro de 2024, o Nomani utiliza malvertising em redes sociais, como Facebook e YouTube, além de vídeos de testemunhos gerados por inteligência artificial (IA) para enganar usuários a investirem em produtos inexistentes. Os golpistas solicitam taxas adicionais ou informações pessoais, como documentos de identidade e dados de cartão de crédito, quando as vítimas tentam retirar os lucros prometidos. Além disso, os fraudadores tentam enganar as vítimas novamente, oferecendo ajuda para recuperar os fundos roubados, mas acabam causando mais perdas financeiras. A ESET bloqueou mais de 64 mil URLs únicas associadas a essa ameaça, com a maioria das detecções originando-se de países como República Tcheca, Japão, Eslováquia, Espanha e Polônia. Apesar do aumento geral nas detecções, houve uma queda de 37% nas detecções na segunda metade de 2025, sugerindo que os atacantes estão mudando suas táticas em resposta a esforços de aplicação da lei. O uso de deepfakes de personalidades populares e a melhoria na qualidade dos vídeos gerados por IA tornam a identificação da fraude mais difícil para os usuários.

ChatGPT Atlas e Chrome são os piores navegadores para a privacidade

Um estudo recente da Digitain revelou que o ChatGPT Atlas, da OpenAI, e o Google Chrome são os navegadores com maior risco à privacidade dos usuários. O ChatGPT Atlas obteve uma pontuação de 99 em 100, indicando falhas significativas em bloquear o rastreamento de usuários entre sessões e sites. O Google Chrome, embora mais popular, ficou em segundo lugar com uma pontuação de 76, demonstrando que a proteção de dados não é uma prioridade para grandes empresas do setor. Outros navegadores, como Mozilla Firefox e Apple Safari, também apresentaram pontuações baixas, levantando preocupações sobre a segurança dos dados dos internautas. Em contrapartida, navegadores como Brave e Mullvad Browser se destacaram por suas funcionalidades focadas na privacidade, sendo recomendados para aqueles que buscam maior proteção online. O estudo alerta que a crescente popularidade de navegadores baseados em inteligência artificial pode aumentar a coleta de dados pessoais, o que representa um risco adicional para a privacidade dos usuários.

Golpes de Natal de 2025 quais são e como evitá-los

Um levantamento da Check Point Software revelou que os golpes de cibersegurança durante o período natalino de 2025 estão mais sofisticados, utilizando inteligência artificial para automatizar fraudes. Entre as ameaças destacadas, estão e-mails de phishing com temática natalina, que somaram 33.502 casos nas últimas duas semanas, e a criação de 10.000 anúncios falsos diariamente em redes sociais. Os golpistas têm se aproveitado de eventos como a Black Friday para lançar sites de varejo falsos, que imitam operações legítimas, incluindo carrinhos de compra e confirmações de e-mail. Além disso, golpes de sorteios e promoções fraudulentas têm inundado plataformas como Facebook e Instagram, onde contas recém-criadas alegam que as vítimas ganharam prêmios, solicitando taxas de envio. Para se proteger, os especialistas recomendam verificar URLs, desconfiar de solicitações de pagamento incomuns e evitar compartilhar informações pessoais sem ter buscado o serviço. O alerta é reforçado por instituições como o FBI e a Anatel, que promovem campanhas de conscientização como o movimento #FiqueEsperto.

A segurança de dados é essencial para o sucesso da IA nas empresas

O CEO da Veeam, Anand Eswaran, destaca a importância da segurança de dados e da resiliência para o sucesso da inteligência artificial (IA) nas empresas. Com o aumento do uso de IA, surgem também novas ameaças, como hackers que utilizam ferramentas de IA para criar malware mais sofisticado. Eswaran enfatiza que, independentemente do setor, os dados são o ‘sangue vital’ dos negócios e que a postura de resiliência é crucial. A Veeam se posiciona como um parceiro essencial, oferecendo uma plataforma unificada que integra controles de segurança de dados, governança de privacidade e resiliência de dados. Ele alerta que a falta de segurança pode levar ao fracasso de projetos de IA, uma vez que 90% dos dados são não estruturados e podem não ter os controles adequados. O CEO também menciona que as empresas precisam agir rapidamente para evitar a disrupção causada por atores maliciosos. A Veeam busca garantir que cada projeto de IA seja bem-sucedido, unindo segurança e resiliência em um único ciclo de vida de dados.

Visa e Akamai se unem para combater fraudes em compras online

A Visa e a Akamai Technologies firmaram uma parceria para combater fraudes em transações realizadas por meio de assistentes de inteligência artificial (IA). Com o aumento do uso de IA em compras online, surgem novas vulnerabilidades que podem ser exploradas por agentes maliciosos. Para mitigar esses riscos, as empresas implementaram o Protocolo de Agente Confiável (TAP) da Visa, que, em conjunto com a inteligência de ameaças da Akamai, garante a autenticidade do agente de IA envolvido na transação. O TAP utiliza reconhecimento profundo de usuários e inteligência comportamental para assegurar que as transações sejam realizadas por humanos e não por bots maliciosos. Além disso, a Visa introduziu a ferramenta Comércio Inteligente, que oferece suporte a desenvolvedores na criação de experiências de compra seguras. O relatório da Akamai de 2025 revelou um aumento de 300% no tráfego de bots de IA, destacando a urgência de soluções eficazes. O TAP promete uma implementação simples, com mudanças mínimas na infraestrutura existente, e proteção de ponta a ponta para os pagamentos, assegurando que as transações sejam realizadas conforme as instruções do comprador.

Líderes de TI buscam equilíbrio entre segurança e produtividade em software

Um novo relatório da JumpCloud e Google Workspace revela que apenas 6% dos líderes de TI estão satisfeitos com suas configurações tecnológicas atuais, destacando preocupações com custos, segurança e complexidade. A pesquisa indica que 87% dos líderes estão abertos a mudar suas suítes de produtividade em busca de plataformas mais unificadas e seguras. Os principais desafios enfrentados incluem tarefas administrativas elevadas, configurações de segurança complexas e preços complicados. A pesquisa critica a plataforma Microsoft 365, apontando a alta sobrecarga administrativa e a complexidade de configuração de segurança como principais pontos de dor. A utilização de inteligência artificial (IA) e uma postura de segurança de confiança zero são sugeridas como soluções para simplificar a gestão de dispositivos e usuários, além de prevenir ataques. O relatório enfatiza a necessidade de uma abordagem unificada para a gestão de identidade e segurança, em vez de depender de uma coleção desorganizada de ferramentas separadas.

Novos kits de phishing ameaçam segurança digital em larga escala

Pesquisadores de cibersegurança identificaram quatro novos kits de phishing: BlackForce, GhostFrame, InboxPrime AI e Spiderman, que facilitam o roubo de credenciais em grande escala. O BlackForce, detectado pela primeira vez em agosto de 2025, é projetado para realizar ataques Man-in-the-Browser (MitB) e capturar senhas de uso único (OTPs), burlando a autenticação multifatorial (MFA). Vendido em fóruns do Telegram, o kit já foi utilizado para se passar por marcas renomadas como Disney e Netflix. O GhostFrame, descoberto em setembro de 2025, utiliza um iframe oculto para redirecionar vítimas a páginas de phishing, enquanto o InboxPrime AI automatiza campanhas de e-mail malicioso usando inteligência artificial, permitindo que atacantes simulem comportamentos humanos reais. Por fim, o Spiderman replica páginas de login de bancos europeus, oferecendo uma plataforma completa para gerenciar campanhas de phishing. Esses kits representam uma ameaça crescente, especialmente para empresas que dependem de autenticação digital, exigindo atenção redobrada das equipes de segurança.

Falha expõe rede com 1 milhão de deepfakes pornográficos

Um vazamento de dados na plataforma MagicEdit, uma ferramenta de geração de imagens com inteligência artificial, revelou a existência de cerca de um milhão de deepfakes pornográficos, incluindo conteúdos envolvendo crianças. O pesquisador de cibersegurança Jeremiah Fowler descobriu que o banco de dados da plataforma continha imagens e vídeos manipulados, muitos dos quais apresentavam sobreposições de rostos de adultos em corpos de menores, levantando sérias preocupações sobre consentimento e exploração. Após a descoberta, a MagicEdit restringiu o acesso ao seu banco de dados e iniciou uma investigação sobre o incidente. O aplicativo, que era destinado a usuários maiores de 18 anos, foi descrito na App Store como contendo conteúdo sexual, mas o vazamento expôs um uso indevido alarmante da tecnologia. Fowler alertou sobre os riscos de chantagem e outros crimes associados a esses deepfakes, embora sua análise tenha sido feita para fins educacionais. O incidente destaca a necessidade urgente de regulamentação e proteção contra o uso indevido da inteligência artificial na criação de conteúdos prejudiciais.

Novas funcionalidades de segurança do Chrome com IA

O Google anunciou novas funcionalidades de segurança para o navegador Chrome, integrando capacidades de inteligência artificial (IA) para mitigar riscos de segurança. Entre as inovações, destaca-se o ‘User Alignment Critic’, que avalia de forma independente as ações do agente de IA, garantindo que estas estejam alinhadas com os objetivos do usuário e não sejam influenciadas por conteúdos maliciosos. Essa abordagem é complementada por um sistema de ‘Agent Origin Sets’, que limita o acesso do agente a dados de origens relevantes, prevenindo vazamentos de dados entre sites. Além disso, o navegador agora exige a aprovação do usuário antes de acessar sites sensíveis, como portais bancários. O Google também implementou um classificador de injeção de prompts, que atua em paralelo ao modelo de planejamento, bloqueando ações baseadas em conteúdos potencialmente maliciosos. Para incentivar a pesquisa em segurança, a empresa oferece recompensas de até $20.000 por demonstrações que consigam violar essas novas barreiras de segurança. A iniciativa surge em um contexto onde especialistas alertam sobre os riscos associados ao uso de navegadores com IA, especialmente em ambientes corporativos. A pesquisa da Gartner recomenda que as empresas evitem o uso de navegadores de IA até que os riscos sejam adequadamente gerenciados.

WatchGuard antecipa tendências de cibersegurança para 2026

A WatchGuard Technologies divulgou um relatório com previsões para a cibersegurança em 2026, destacando a crescente importância da inteligência artificial e das regulamentações de segurança digital. Segundo os especialistas Marc Laliberte e Corey Nachreiner, os crypto-ransomwares devem diminuir, pois as empresas estão adotando melhores práticas de backup e recuperação, tornando-se menos propensas a pagar resgates. Em contrapartida, os ataques focados em roubo de dados e chantagem por exposição pública devem aumentar. Além disso, a segurança do ecossistema open source pode ser ameaçada por ataques a repositórios como NPM e PyPI, levando à necessidade de defesas automatizadas baseadas em IA. Com a implementação do Cyber Resilience Act na Europa, empresas terão apenas 24 horas para reportar vulnerabilidades, o que pode acelerar a adoção de práticas de segurança. A previsão é que em 2026 ocorra o primeiro ataque totalmente executado por IA, ressaltando a urgência de defesas igualmente automatizadas. Falhas de configuração e ataques a portas de VPN continuarão a ser vulnerabilidades significativas, especialmente para pequenas e médias empresas, que devem adotar medidas de segurança do tipo Zero Trust.

5 formas de se proteger de injeção de prompt em navegadores de IA

O avanço da inteligência artificial (IA) trouxe benefícios significativos, mas também expôs usuários a novos riscos, como a injeção de prompt em navegadores. Esse tipo de ataque ocorre quando hackers inserem códigos maliciosos em prompts, manipulando a IA para realizar atividades fraudulentas, como roubo de dados e credenciais. O artigo apresenta cinco dicas práticas para mitigar esses riscos. Primeiro, é essencial desconfiar das informações fornecidas pela IA, sempre verificando a veracidade com fontes confiáveis. Em segundo lugar, os usuários devem evitar compartilhar dados pessoais sensíveis, como informações bancárias, que podem ser acessadas por cibercriminosos. A atualização constante dos dispositivos é outra medida crucial, pois correções de segurança ajudam a fechar brechas exploráveis. Além disso, é importante monitorar as atividades da IA e verificar a precisão das informações geradas. Por fim, a autenticação multifator (MFA) é recomendada para adicionar uma camada extra de segurança, dificultando o acesso não autorizado mesmo em caso de vazamento de credenciais. Essas práticas são fundamentais para proteger os usuários em um cenário digital cada vez mais complexo.

A industrialização do cibercrime novas ferramentas de phishing

O cenário de cibersegurança está mudando drasticamente com a ascensão de ferramentas de inteligência artificial que facilitam ataques de phishing. Hoje, até mesmo indivíduos sem habilidades de programação podem lançar campanhas sofisticadas, equiparando-se a hackers patrocinados por estados. O artigo destaca três ferramentas principais que estão transformando o panorama das ameaças: WormGPT, que gera e-mails de comprometimento empresarial (BEC) com alta personalização; FraudGPT, um serviço de hacking que oferece um conjunto completo de ferramentas por uma assinatura mensal; e SpamGPT, que permite testes A/B em fraudes em larga escala. A eficácia das estratégias tradicionais de detecção de e-mails está em declínio, pois as mensagens geradas por IA são indistinguíveis das legítimas. A solução proposta é mudar o foco da defesa, não apenas bloqueando e-mails, mas protegendo identidades e neutralizando ataques no ponto de acesso, garantindo que os hackers não consigam obter credenciais. O artigo conclui que, para enfrentar essa nova realidade, é essencial que as empresas adotem uma abordagem proativa e inteligente na defesa contra essas ameaças emergentes.

Qualquer um pode criar vírus com esta nova inteligência artificial

Pesquisadores da Unit 42, da Palo Alto Networks, alertam sobre o uso de Grandes Modelos de Linguagem (LLMs) por cibercriminosos. Ferramentas como WormGPT 4 e KawaiiGPT estão sendo utilizadas para facilitar a criação de malwares e ataques cibernéticos. O WormGPT, que ressurgiu em sua quarta versão, permite que hackers, mesmo sem experiência, desenvolvam códigos de ransomware e mensagens de phishing. Por exemplo, foi solicitado ao WormGPT que criasse um código para encriptar arquivos PDF em sistemas Windows, resultando em um script PowerShell que utiliza o algoritmo AES-256. Já o KawaiiGPT, uma alternativa comunitária, pode gerar mensagens de spear-phishing e scripts para movimentação lateral em sistemas, demonstrando a facilidade com que cibercriminosos podem automatizar ataques. Ambas as LLMs têm atraído a atenção de hackers, com comunidades ativas no Telegram, o que torna a situação ainda mais preocupante para a cibersegurança. A análise indica que o uso dessas ferramentas não é mais uma ameaça teórica, mas uma realidade crescente, exigindo atenção redobrada das empresas para proteger seus dados e sistemas.

Brasil lidera uso de deepfakes em fraudes na América Latina

Um relatório da Sumsub, empresa especializada em verificação de identidade, revelou que o Brasil é o líder na utilização de deepfakes para fraudes na América Latina, com um aumento alarmante de 126% entre 2024 e 2025. Apesar da diminuição geral no número de ataques, a complexidade das fraudes tem crescido, com 28% das tentativas globais sendo consideradas altamente sofisticadas. O uso de deepfakes e identidades sintéticas está se tornando cada vez mais comum, especialmente em um cenário onde 43% das empresas na região relataram ter sofrido fraudes. O relatório destaca que a manipulação de telemetria, onde dados de dispositivos e fluxos de câmera são alterados, está na vanguarda dessas fraudes. A digitalização das fraudes também é crescente, com 1 em cada 50 documentos falsificados gerados por inteligência artificial. Para enfrentar esses desafios, as empresas precisam adotar tecnologias de segurança mais avançadas, como biometria comportamental e monitoramento contínuo, para se protegerem contra esses novos métodos de ataque.

Deepfakes de IA aumentam 1740 e tornam golpes indetectáveis

Um estudo da McAfee revelou que os golpes baseados em inteligência artificial (IA) e deepfakes aumentaram 1.740% nos Estados Unidos em um ano, com quase metade da população já tendo encontrado tais fraudes durante compras online. Os deepfakes, que são vídeos ou áudios manipulados para imitar pessoas reais, tornaram-se tão sofisticados que 39% dos entrevistados afirmaram ter dificuldade em identificá-los. Além disso, 22% dos que acreditavam ser capazes de detectar fraudes acabaram caindo em golpes. Um exemplo notável foi um vídeo falso da cantora Taylor Swift, que promovia uma doação de panelas de luxo, enganando fãs e levando-os a sites fraudulentos. Para se proteger, especialistas recomendam desconfiar de anúncios que parecem bons demais para serem verdade e sempre verificar diretamente os sites oficiais das marcas. A pesquisa destaca a necessidade de vigilância constante e de uma abordagem crítica ao consumir conteúdo online, especialmente em épocas de festas, quando os golpes tendem a aumentar.

Avast lança ferramenta gratuita de IA para combater fraudes digitais

A Avast lançou recentemente o Scam Guardian, uma ferramenta gratuita baseada em inteligência artificial (IA) destinada a combater fraudes digitais. Integrada ao Avast Free Antivirus, essa nova funcionalidade visa proteger os usuários de golpes online, especialmente em um cenário onde cibercriminosos estão utilizando IA para automatizar fraudes. O Scam Guardian é descrito como uma ‘investigadora experiente de fraudes’, capaz de analisar não apenas links maliciosos, mas também o contexto e a linguagem das URLs suspeitas, identificando sinais de perigo. Além disso, a ferramenta bloqueia ameaças ocultas no código de sites, promovendo uma navegação mais segura. A Avast também oferece uma versão premium, o Scam Guardian Pro, que proporciona proteção adicional contra golpes via e-mail e SMS. O aumento alarmante de fraudes digitais, com um crescimento de 186% em registros pessoais vazados e 466% em casos de phishing no primeiro trimestre de 2025, destaca a urgência de soluções eficazes. A diretora de produtos da Gen Digital, Leena Elias, enfatiza a importância de disponibilizar proteção robusta contra golpes, especialmente em tempos de crescente violação de dados.

Investimentos em SOC A chave para a segurança cibernética eficaz

As empresas atualmente são desafiadas a manter entre 6 a 8 ferramentas de detecção de ameaças, consideradas essenciais na defesa cibernética. No entanto, muitos líderes de segurança enfrentam dificuldades para justificar a alocação de recursos para suas equipes de Centro de Operações de Segurança (SOC), resultando em investimentos assimétricos. Um estudo de caso recente revelou que, apesar de oito ferramentas de segurança de e-mail falharem em detectar um ataque de phishing sofisticado direcionado a executivos, as equipes do SOC conseguiram identificar a ameaça rapidamente após relatos de funcionários. Essa eficácia se deve a um investimento equilibrado ao longo do ciclo de alerta, que não negligencia o SOC. O artigo destaca que a falta de recursos no SOC pode dificultar a identificação de ameaças e sobrecarregar os analistas com alertas, comprometendo a capacidade de investigação. A adoção de plataformas de SOC baseadas em inteligência artificial (IA) está emergindo como uma solução eficaz, permitindo que equipes pequenas realizem investigações mais profundas e reduzam significativamente os falsos positivos. O investimento em SOC não apenas maximiza o retorno sobre os investimentos em ferramentas de detecção, mas também se torna crucial à medida que as ameaças se tornam mais sofisticadas.

Norton revela ameaças baseadas em IA no Brasil e suas contramedidas

Em um recente evento, a Norton apresentou dados alarmantes sobre o aumento de ciberataques no Brasil, destacando o uso crescente de inteligência artificial (IA) em golpes de engenharia social. A pesquisa revelou que 68% dos brasileiros estão mais preocupados com fraudes online do que no ano anterior, e 74% temem pela segurança de seus dados pessoais. A sofisticação dos ataques inclui a combinação de SMS, e-mails e redes sociais, utilizando conteúdos gerados por IA, como deepfakes, para enganar as vítimas. A Norton, em resposta, atualizou suas ferramentas de segurança, como o Norton Scam Protection, que agora conta com o Norton Genie AI, capaz de identificar e bloquear golpes em tempo real, especialmente em mensagens SMS. A empresa bloqueia cerca de 110 tentativas de golpe relacionadas à engenharia social por segundo, evidenciando a gravidade da situação. Com 65% dos brasileiros incapazes de identificar golpes gerados por IA, a necessidade de soluções eficazes de cibersegurança se torna ainda mais urgente.

Google nega uso de e-mails do Gmail para treinar IAs

O Google se defendeu de acusações de que estaria utilizando e-mails do Gmail para treinar seus modelos de inteligência artificial sem o consentimento dos usuários. As alegações surgiram após uma análise da empresa de segurança Malwarebytes, que sugeriu que mudanças nas configurações do Gmail permitiriam a análise de e-mails pessoais para alimentar ferramentas como o Gemini. O Google, em resposta, afirmou que não altera as configurações dos usuários e que os recursos inteligentes do Gmail, como a Escrita e Resposta Inteligentes, existem há anos sem uso do conteúdo dos e-mails para treinar suas IAs. Após a resposta do Google, a Malwarebytes revisou sua posição, reconhecendo que as acusações foram baseadas em mal-entendidos sobre a apresentação das configurações do Gmail. A empresa de segurança esclareceu que o Gmail apenas escaneia e-mails para ativar recursos como filtragem de spam e sugestões de escrita, práticas consideradas normais em termos de segurança e privacidade. O artigo também menciona que os usuários podem desativar esses recursos nas configurações do Gmail, caso desejem maior controle sobre suas informações.

Brasil é vice-campeão mundial em ciberataques com 28 milhões de golpes no Pix

O Brasil enfrenta um alarmante aumento nas fraudes digitais, com 28 milhões de golpes via Pix registrados entre janeiro e setembro de 2025. O país ocupa o segundo lugar no ranking global de ciberataques, com 700 milhões de tentativas anuais, o que equivale a 1.379 ataques por minuto. A pesquisa da Associação de Defesa de Dados Pessoais e do Consumidor (ADDP) revela que a maioria das fraudes ocorre em compras online, com 2,7 milhões de casos, seguidos por 1,6 milhão de golpes via WhatsApp e 1,5 milhão relacionados a phishing. Os golpes financeiros, especialmente os que envolvem o Pix, representam 47% das fraudes totais, enquanto 15% estão ligados ao roubo de identidade. O estudo também destaca que pessoas acima de 50 anos são as mais afetadas, representando 53% das vítimas. Além disso, a utilização de tecnologias avançadas, como deepfakes e inteligência artificial, tem contribuído para a sofisticação dos golpes. O presidente da ADDP, Francisco Gomes Junior, alerta que a falta de educação digital e a popularização do Pix têm facilitado a atuação de quadrilhas organizadas, resultando em prejuízos estimados entre R$ 10 bilhões e R$ 112 bilhões, muitos dos quais não são reportados.

AGU derruba site que vendia deepfakes com pornografia infantil

A Advocacia Geral da União (AGU) tomou medidas para desativar um site estrangeiro que comercializava deepfakes utilizados na produção de pornografia infantil. A ação foi desencadeada após uma notificação extrajudicial da Procuradoria Nacional da União de Defesa da Democracia (PNDD). A investigação, realizada em parceria com o Pulitzer Center, revelou que o site utilizava inteligência artificial para criar imagens falsas a partir de fotos reais de crianças, que eram então vendidas na dark web. A tecnologia de deepfake, baseada em deep learning, permite a criação de conteúdos visuais extremamente realistas, o que representa um risco significativo, especialmente quando utilizada para fins ilícitos como a exploração sexual infantil. A AGU conseguiu que o site reconhecesse a ilegalidade de suas atividades e o retirasse do ar. Este incidente destaca a crescente preocupação com o uso de IA em crimes online, especialmente em um contexto onde a identificação de conteúdos falsificados se torna cada vez mais difícil. Além disso, o Brasil está em processo de regulamentação do uso de IA, com o Marco Legal da IA em análise na Câmara dos Deputados, visando aumentar a segurança e a transparência no uso dessas tecnologias.

Vulnerabilidades críticas em motores de IA afetam Nvidia e outras empresas

Pesquisadores da Oligo identificaram vulnerabilidades graves em motores de inferência de inteligência artificial, impactando grandes empresas como Meta, Microsoft e Nvidia. As falhas, que permitem a execução de código remoto, estão ligadas ao uso inseguro do ZeroMQ e à desserialização de dados com o módulo pickle do Python, resultando em um padrão de vulnerabilidade denominado ShadowMQ. A principal brecha foi encontrada no framework Llama da Meta, classificada como CVE-2024-50050, com um score CVSS de 6,3/9,3, que foi corrigida em outubro de 2025. Outras tecnologias, como a TensorRT-LLM da Nvidia e o Sarathi-Serve da Microsoft, também apresentaram falhas, com algumas ainda sem correção. A exploração dessas vulnerabilidades pode permitir que invasores executem códigos arbitrários, aumentem privilégios e até roubem modelos de IA. A situação é crítica, pois comprometer um único motor de inferência pode ter consequências severas, como a inserção de agentes maliciosos nas LLMs. O alerta é para que as empresas revisem suas implementações e apliquem as correções necessárias para evitar possíveis ataques.

Hackers chineses utilizam IA para automatizar ciberespionagem

Hackers chineses estão utilizando inteligência artificial (IA) para aprimorar suas campanhas de ciberespionagem, conforme identificado pela Anthropic, a empresa responsável pela ferramenta Claude Code. Essa nova abordagem foi observada em ataques a cerca de 30 empresas internacionais, incluindo instituições financeiras e agências governamentais. O relatório revela que, em ataques bem-sucedidos, a intervenção humana foi mínima, com a IA executando de 80 a 90% das tarefas necessárias.

A operação dos hackers foi organizada em seis fases, começando pela seleção do alvo e culminando na exfiltração de dados confidenciais. A IA foi manipulada para atuar como um agente autônomo, encontrando vulnerabilidades, coletando credenciais e explorando sistemas. A Anthropic respondeu banindo as contas associadas a esses ataques e implementando novos mecanismos de defesa. Essa evolução na ciberespionagem, com uma IA promovendo um ataque de larga escala, levanta preocupações sobre a profissionalização do cibercrime e o uso crescente de tecnologias avançadas para atividades ilícitas.

A lacuna de exposição em IA pode ser o maior problema de segurança

Um novo relatório da Tenable destaca a crescente preocupação com a segurança em ambientes que utilizam inteligência artificial (IA). Com 89% das organizações já implementando ou testando cargas de trabalho de IA, a pesquisa revela que apenas 22% das empresas classificam e criptografam completamente seus dados de IA, deixando 78% vulneráveis a ataques. Além disso, 34% dos adotantes de IA já enfrentaram violações relacionadas à tecnologia, sendo que a maioria dessas falhas decorre de vulnerabilidades internas e não de ataques sofisticados aos modelos de IA. As principais causas de brechas incluem vulnerabilidades de software (21%) e ameaças internas (18%). A Tenable alerta que as empresas estão escalando suas operações de IA mais rapidamente do que conseguem garantir a segurança, resultando em defesas reativas. A pesquisa também indica que cerca de 51% das empresas seguem diretrizes mínimas, como o NIST AI Risk Management Framework, e apenas 26% realizam testes de segurança específicos para IA. Para mitigar a ’lacuna de exposição em IA’, a Tenable recomenda que as empresas priorizem controles fundamentais, como governança de identidade e monitoramento de configurações, para estabelecer uma postura de segurança robusta.

IA com 30 anos de memória é usada para combater crimes digitais

A Cisco anunciou o desenvolvimento de uma nova inteligência artificial (IA) que utiliza 30 anos de dados sobre ataques cibernéticos para aprimorar a segurança digital. O projeto visa expandir o modelo Foundation-Sec-8B, que atualmente opera com 8 bilhões de parâmetros, para 17 bilhões, aumentando a precisão na detecção de ameaças. Raj Chopra, vice-presidente sênior da Cisco, destacou que o foco não é criar um sucessor, mas sim um modelo expandido que utilize um vasto arsenal de informações coletadas ao longo das últimas três décadas, incluindo incidentes e manuais de treinamento. A equipe de especialistas em segurança digital da Cisco liderará esse processo, que deve ser concluído até o final do ano. Além disso, a empresa está desenvolvendo novos modelos de IA para complementar essa versão atualizada, com o objetivo de apoiar os profissionais de segurança no combate ao cibercrime com ferramentas mais sofisticadas.

Hackers Chineses Usam IA para Infiltrar Grandes Empresas de Tecnologia

Um ataque cibernético em larga escala, realizado quase inteiramente por inteligência artificial, foi revelado pela Anthropic. O incidente, que ocorreu em setembro de 2025, envolveu hackers patrocinados pelo Estado chinês que utilizaram a IA Claude Code para comprometer cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais. A campanha de espionagem se destacou pela automação sem precedentes, com a IA gerenciando 80-90% das operações, exigindo intervenção humana apenas em 4-6 pontos críticos. Os atacantes exploraram capacidades avançadas da IA, como execução de tarefas complexas e operação autônoma, para realizar reconhecimento, desenvolver códigos de exploração e exfiltrar dados classificados. A Anthropic detectou a atividade suspeita e iniciou uma investigação, resultando na identificação de contas comprometidas e na notificação das organizações afetadas. Este incidente sinaliza uma diminuição nas barreiras para ataques cibernéticos sofisticados, permitindo que grupos menos experientes realizem operações que antes exigiam recursos significativos. A empresa recomenda que equipes de segurança experimentem aplicações de IA para melhorar a detecção de ameaças e a resposta a incidentes.

Ciberespionagem Atores estatais da China usam IA para ataques

Em setembro de 2025, atores de ameaças patrocinados pelo Estado da China utilizaram tecnologia de inteligência artificial (IA) desenvolvida pela Anthropic para realizar uma campanha de ciberespionagem sofisticada. Os atacantes empregaram as capacidades ‘agentes’ da IA para executar ataques cibernéticos de forma autônoma, sem intervenção humana significativa. A operação, denominada GTG-1002, visou cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais, resultando em algumas intrusões bem-sucedidas. A Anthropic identificou que a IA foi utilizada para realizar diversas etapas do ciclo de ataque, como reconhecimento, descoberta de vulnerabilidades e exfiltração de dados. Embora a operação tenha demonstrado um uso inovador da IA, também revelou limitações, como a tendência da IA de ‘alucinar’ dados, o que pode comprometer a eficácia das operações. Este incidente destaca a evolução das táticas de ciberataques, onde grupos menos experientes podem potencialmente realizar ataques em larga escala com o suporte de sistemas de IA.

Vulnerabilidades críticas em motores de IA expõem riscos de segurança

Pesquisadores de cibersegurança identificaram vulnerabilidades críticas de execução remota de código em motores de inferência de inteligência artificial (IA) de grandes empresas como Meta, Nvidia e Microsoft, além de projetos open-source como vLLM e SGLang. O problema central está relacionado ao uso inseguro do ZeroMQ (ZMQ) e à desserialização do Python, resultando em um padrão denominado ShadowMQ. A vulnerabilidade mais significativa foi encontrada no framework Llama da Meta (CVE-2024-50050), que permitia a execução de código arbitrário ao desserializar dados maliciosos. Outras plataformas, como NVIDIA TensorRT-LLM e Microsoft Sarathi-Serve, também apresentaram falhas semelhantes. A exploração dessas vulnerabilidades pode permitir que atacantes executem código arbitrário, escalem privilégios e até realizem roubo de modelos de IA. Com a rápida evolução dos projetos de IA, a reutilização de código inseguro se torna um risco crescente. Além disso, um novo relatório revelou que técnicas de injeção de JavaScript podem comprometer navegadores integrados em editores de código, aumentando ainda mais as preocupações de segurança. É crucial que as empresas adotem medidas de mitigação, como desativar recursos de execução automática e auditar servidores de integração.