Extração De Dados

Malwares utilizam trigonometria do mouse para identificar humanos

Um novo relatório da Picus Security, intitulado The Red Report 2026, revela que malwares estão adotando técnicas sofisticadas para se infiltrar em sistemas e evitar detecções. A pesquisa analisou mais de 1,1 milhão de arquivos maliciosos e 15,5 milhões de ações hackers em 2025, destacando uma mudança de foco dos ransomwares para a extração silenciosa de dados. Os hackers estão utilizando serviços confiáveis, como OpenAI e AWS, para ocultar suas atividades, e em 25% dos ataques, senhas roubadas de navegadores são usadas para se passar por usuários legítimos. O cofundador da Picus, Süleyman Özarslan, descreve essa abordagem como a de um ‘parasita digital’, onde a permanência no sistema da vítima é mais lucrativa do que a destruição. Além disso, malwares como o LummaC2 estão utilizando trigonometria para detectar a movimentação do mouse, evitando ataques quando o usuário está em ambientes de segurança. O relatório também aponta que os malwares agora possuem em média 14 capacidades maliciosas e 12 técnicas anti-antivírus, exigindo que as empresas de segurança aprimorem suas defesas.

Vulnerabilidade no Google Gemini permite extração de dados do Calendar

Pesquisadores de cibersegurança revelaram uma falha de segurança que permite a injeção de comandos no Google Gemini, possibilitando a extração de dados do Google Calendar. A vulnerabilidade, identificada por Liad Eliyahu, da Miggo Security, permite que um invasor crie um evento de calendário malicioso que, ao ser consultado pelo usuário, ativa um comando oculto que extrai informações privadas de reuniões. O ataque é ativado quando o usuário faz uma pergunta aparentemente inocente sobre sua agenda, levando o chatbot a gerar um novo evento que contém um resumo das reuniões privadas do usuário. Embora a falha tenha sido corrigida, o incidente destaca como as funcionalidades baseadas em inteligência artificial podem ampliar a superfície de ataque e introduzir novos riscos de segurança. Além disso, a pesquisa aponta que vulnerabilidades não se limitam mais ao código, mas também se manifestam na linguagem e no comportamento da IA em tempo real. O artigo também menciona outras vulnerabilidades em sistemas de IA, reforçando a necessidade de auditorias regulares e controles de segurança adequados em ambientes corporativos que utilizam essas tecnologias.