Inteligência Artificial

Hackers transformam robôs em máquinas violentas em teste de segurança

Especialistas de segurança da China alertaram para o risco de robôs humanoides serem sequestrados por cibercriminosos através de comandos de voz. Durante a GEEKCon, uma competição de hacking em Xangai, foi demonstrado como falhas em sistemas de controle de robôs podem ser exploradas para causar danos físicos. A equipe de pesquisa DARKNAVY mostrou que um robô humanoide, disponível no mercado, pode ser controlado por um simples comando de voz, transformando-o rapidamente em uma ameaça. Além disso, o robô comprometido pode infectar outros androides via conexões sem fio de curto alcance, criando uma rede de máquinas potencialmente perigosas. A demonstração incluiu um comando violento que fez o robô atacar um manequim, evidenciando o risco real que essa vulnerabilidade representa para a segurança pública. Os especialistas ressaltaram a necessidade de regulamentação mais rigorosa para a implementação de robôs em ambientes públicos e industriais, uma vez que a crença de que mantê-los desconectados seria suficiente para evitar riscos não se sustenta diante das novas tecnologias.

Inteligência Artificial nas Operações de Segurança Desafios e Oportunidades

A inteligência artificial (IA) está rapidamente se integrando às operações de segurança, mas muitas equipes ainda enfrentam dificuldades para transformar experimentos iniciais em valor operacional consistente. De acordo com a pesquisa SANS SOC de 2025, 40% dos Centros de Operações de Segurança (SOCs) utilizam ferramentas de IA ou aprendizado de máquina (ML) sem integrá-las formalmente às suas operações. Isso resulta em um uso informal e muitas vezes pouco confiável da IA, sem um modelo claro de como validar seus resultados. A IA pode melhorar a capacidade e a satisfação das equipes, mas deve ser aplicada a problemas bem definidos e acompanhada de processos de revisão rigorosos. O artigo destaca cinco áreas onde a IA pode oferecer suporte confiável: engenharia de detecção, caça a ameaças, desenvolvimento e análise de software, automação e orquestração. A aplicação eficaz da IA requer que as equipes definam claramente os problemas e validem as saídas, evitando a dependência excessiva da automação. A abordagem deve ser de refinamento de processos existentes, em vez de criar novas categorias de trabalho.

Ameaças de Segurança em Sistemas de IA Um Alerta Urgente

Em 2024, a segurança cibernética enfrentou um aumento alarmante de 25% em vazamentos de dados, totalizando 23,77 milhões de segredos expostos, devido a falhas em sistemas de inteligência artificial (IA). Incidentes como a invasão da biblioteca Ultralytics AI, que instalou código malicioso para mineração de criptomoedas, e a exposição de 2.349 credenciais por pacotes Nx, destacam a vulnerabilidade das organizações, mesmo aquelas com programas de segurança robustos. Os frameworks tradicionais de segurança, como NIST e ISO, não foram projetados para lidar com as especificidades das ameaças de IA, resultando em lacunas significativas na proteção. Por exemplo, ataques de injeção de prompt e envenenamento de modelo exploram falhas que não são abordadas por controles convencionais. A falta de diretrizes específicas para esses vetores de ataque torna as empresas vulneráveis, mesmo após auditorias e conformidade com normas de segurança. A situação é crítica, pois a detecção de ataques relacionados à IA pode levar ainda mais tempo, exacerbando o risco. A crescente adoção de pacotes de IA em ambientes de nuvem aumenta ainda mais a superfície de ataque, exigindo uma reavaliação urgente das estratégias de segurança.

Aumento de 62 em fraudes de investimento com uso de IA

O esquema de fraude de investimento conhecido como Nomani teve um aumento de 62% em suas atividades, conforme dados da ESET. Inicialmente documentado em dezembro de 2024, o Nomani utiliza malvertising em redes sociais, como Facebook e YouTube, além de vídeos de testemunhos gerados por inteligência artificial (IA) para enganar usuários a investirem em produtos inexistentes. Os golpistas solicitam taxas adicionais ou informações pessoais, como documentos de identidade e dados de cartão de crédito, quando as vítimas tentam retirar os lucros prometidos. Além disso, os fraudadores tentam enganar as vítimas novamente, oferecendo ajuda para recuperar os fundos roubados, mas acabam causando mais perdas financeiras. A ESET bloqueou mais de 64 mil URLs únicas associadas a essa ameaça, com a maioria das detecções originando-se de países como República Tcheca, Japão, Eslováquia, Espanha e Polônia. Apesar do aumento geral nas detecções, houve uma queda de 37% nas detecções na segunda metade de 2025, sugerindo que os atacantes estão mudando suas táticas em resposta a esforços de aplicação da lei. O uso de deepfakes de personalidades populares e a melhoria na qualidade dos vídeos gerados por IA tornam a identificação da fraude mais difícil para os usuários.

ChatGPT Atlas e Chrome são os piores navegadores para a privacidade

Um estudo recente da Digitain revelou que o ChatGPT Atlas, da OpenAI, e o Google Chrome são os navegadores com maior risco à privacidade dos usuários. O ChatGPT Atlas obteve uma pontuação de 99 em 100, indicando falhas significativas em bloquear o rastreamento de usuários entre sessões e sites. O Google Chrome, embora mais popular, ficou em segundo lugar com uma pontuação de 76, demonstrando que a proteção de dados não é uma prioridade para grandes empresas do setor. Outros navegadores, como Mozilla Firefox e Apple Safari, também apresentaram pontuações baixas, levantando preocupações sobre a segurança dos dados dos internautas. Em contrapartida, navegadores como Brave e Mullvad Browser se destacaram por suas funcionalidades focadas na privacidade, sendo recomendados para aqueles que buscam maior proteção online. O estudo alerta que a crescente popularidade de navegadores baseados em inteligência artificial pode aumentar a coleta de dados pessoais, o que representa um risco adicional para a privacidade dos usuários.

Golpes de Natal de 2025 quais são e como evitá-los

Um levantamento da Check Point Software revelou que os golpes de cibersegurança durante o período natalino de 2025 estão mais sofisticados, utilizando inteligência artificial para automatizar fraudes. Entre as ameaças destacadas, estão e-mails de phishing com temática natalina, que somaram 33.502 casos nas últimas duas semanas, e a criação de 10.000 anúncios falsos diariamente em redes sociais. Os golpistas têm se aproveitado de eventos como a Black Friday para lançar sites de varejo falsos, que imitam operações legítimas, incluindo carrinhos de compra e confirmações de e-mail. Além disso, golpes de sorteios e promoções fraudulentas têm inundado plataformas como Facebook e Instagram, onde contas recém-criadas alegam que as vítimas ganharam prêmios, solicitando taxas de envio. Para se proteger, os especialistas recomendam verificar URLs, desconfiar de solicitações de pagamento incomuns e evitar compartilhar informações pessoais sem ter buscado o serviço. O alerta é reforçado por instituições como o FBI e a Anatel, que promovem campanhas de conscientização como o movimento #FiqueEsperto.

A segurança de dados é essencial para o sucesso da IA nas empresas

O CEO da Veeam, Anand Eswaran, destaca a importância da segurança de dados e da resiliência para o sucesso da inteligência artificial (IA) nas empresas. Com o aumento do uso de IA, surgem também novas ameaças, como hackers que utilizam ferramentas de IA para criar malware mais sofisticado. Eswaran enfatiza que, independentemente do setor, os dados são o ‘sangue vital’ dos negócios e que a postura de resiliência é crucial. A Veeam se posiciona como um parceiro essencial, oferecendo uma plataforma unificada que integra controles de segurança de dados, governança de privacidade e resiliência de dados. Ele alerta que a falta de segurança pode levar ao fracasso de projetos de IA, uma vez que 90% dos dados são não estruturados e podem não ter os controles adequados. O CEO também menciona que as empresas precisam agir rapidamente para evitar a disrupção causada por atores maliciosos. A Veeam busca garantir que cada projeto de IA seja bem-sucedido, unindo segurança e resiliência em um único ciclo de vida de dados.

Visa e Akamai se unem para combater fraudes em compras online

A Visa e a Akamai Technologies firmaram uma parceria para combater fraudes em transações realizadas por meio de assistentes de inteligência artificial (IA). Com o aumento do uso de IA em compras online, surgem novas vulnerabilidades que podem ser exploradas por agentes maliciosos. Para mitigar esses riscos, as empresas implementaram o Protocolo de Agente Confiável (TAP) da Visa, que, em conjunto com a inteligência de ameaças da Akamai, garante a autenticidade do agente de IA envolvido na transação. O TAP utiliza reconhecimento profundo de usuários e inteligência comportamental para assegurar que as transações sejam realizadas por humanos e não por bots maliciosos. Além disso, a Visa introduziu a ferramenta Comércio Inteligente, que oferece suporte a desenvolvedores na criação de experiências de compra seguras. O relatório da Akamai de 2025 revelou um aumento de 300% no tráfego de bots de IA, destacando a urgência de soluções eficazes. O TAP promete uma implementação simples, com mudanças mínimas na infraestrutura existente, e proteção de ponta a ponta para os pagamentos, assegurando que as transações sejam realizadas conforme as instruções do comprador.

Líderes de TI buscam equilíbrio entre segurança e produtividade em software

Um novo relatório da JumpCloud e Google Workspace revela que apenas 6% dos líderes de TI estão satisfeitos com suas configurações tecnológicas atuais, destacando preocupações com custos, segurança e complexidade. A pesquisa indica que 87% dos líderes estão abertos a mudar suas suítes de produtividade em busca de plataformas mais unificadas e seguras. Os principais desafios enfrentados incluem tarefas administrativas elevadas, configurações de segurança complexas e preços complicados. A pesquisa critica a plataforma Microsoft 365, apontando a alta sobrecarga administrativa e a complexidade de configuração de segurança como principais pontos de dor. A utilização de inteligência artificial (IA) e uma postura de segurança de confiança zero são sugeridas como soluções para simplificar a gestão de dispositivos e usuários, além de prevenir ataques. O relatório enfatiza a necessidade de uma abordagem unificada para a gestão de identidade e segurança, em vez de depender de uma coleção desorganizada de ferramentas separadas.

Novos kits de phishing ameaçam segurança digital em larga escala

Pesquisadores de cibersegurança identificaram quatro novos kits de phishing: BlackForce, GhostFrame, InboxPrime AI e Spiderman, que facilitam o roubo de credenciais em grande escala. O BlackForce, detectado pela primeira vez em agosto de 2025, é projetado para realizar ataques Man-in-the-Browser (MitB) e capturar senhas de uso único (OTPs), burlando a autenticação multifatorial (MFA). Vendido em fóruns do Telegram, o kit já foi utilizado para se passar por marcas renomadas como Disney e Netflix. O GhostFrame, descoberto em setembro de 2025, utiliza um iframe oculto para redirecionar vítimas a páginas de phishing, enquanto o InboxPrime AI automatiza campanhas de e-mail malicioso usando inteligência artificial, permitindo que atacantes simulem comportamentos humanos reais. Por fim, o Spiderman replica páginas de login de bancos europeus, oferecendo uma plataforma completa para gerenciar campanhas de phishing. Esses kits representam uma ameaça crescente, especialmente para empresas que dependem de autenticação digital, exigindo atenção redobrada das equipes de segurança.

Falha expõe rede com 1 milhão de deepfakes pornográficos

Um vazamento de dados na plataforma MagicEdit, uma ferramenta de geração de imagens com inteligência artificial, revelou a existência de cerca de um milhão de deepfakes pornográficos, incluindo conteúdos envolvendo crianças. O pesquisador de cibersegurança Jeremiah Fowler descobriu que o banco de dados da plataforma continha imagens e vídeos manipulados, muitos dos quais apresentavam sobreposições de rostos de adultos em corpos de menores, levantando sérias preocupações sobre consentimento e exploração. Após a descoberta, a MagicEdit restringiu o acesso ao seu banco de dados e iniciou uma investigação sobre o incidente. O aplicativo, que era destinado a usuários maiores de 18 anos, foi descrito na App Store como contendo conteúdo sexual, mas o vazamento expôs um uso indevido alarmante da tecnologia. Fowler alertou sobre os riscos de chantagem e outros crimes associados a esses deepfakes, embora sua análise tenha sido feita para fins educacionais. O incidente destaca a necessidade urgente de regulamentação e proteção contra o uso indevido da inteligência artificial na criação de conteúdos prejudiciais.

Novas funcionalidades de segurança do Chrome com IA

O Google anunciou novas funcionalidades de segurança para o navegador Chrome, integrando capacidades de inteligência artificial (IA) para mitigar riscos de segurança. Entre as inovações, destaca-se o ‘User Alignment Critic’, que avalia de forma independente as ações do agente de IA, garantindo que estas estejam alinhadas com os objetivos do usuário e não sejam influenciadas por conteúdos maliciosos. Essa abordagem é complementada por um sistema de ‘Agent Origin Sets’, que limita o acesso do agente a dados de origens relevantes, prevenindo vazamentos de dados entre sites. Além disso, o navegador agora exige a aprovação do usuário antes de acessar sites sensíveis, como portais bancários. O Google também implementou um classificador de injeção de prompts, que atua em paralelo ao modelo de planejamento, bloqueando ações baseadas em conteúdos potencialmente maliciosos. Para incentivar a pesquisa em segurança, a empresa oferece recompensas de até $20.000 por demonstrações que consigam violar essas novas barreiras de segurança. A iniciativa surge em um contexto onde especialistas alertam sobre os riscos associados ao uso de navegadores com IA, especialmente em ambientes corporativos. A pesquisa da Gartner recomenda que as empresas evitem o uso de navegadores de IA até que os riscos sejam adequadamente gerenciados.

WatchGuard antecipa tendências de cibersegurança para 2026

A WatchGuard Technologies divulgou um relatório com previsões para a cibersegurança em 2026, destacando a crescente importância da inteligência artificial e das regulamentações de segurança digital. Segundo os especialistas Marc Laliberte e Corey Nachreiner, os crypto-ransomwares devem diminuir, pois as empresas estão adotando melhores práticas de backup e recuperação, tornando-se menos propensas a pagar resgates. Em contrapartida, os ataques focados em roubo de dados e chantagem por exposição pública devem aumentar. Além disso, a segurança do ecossistema open source pode ser ameaçada por ataques a repositórios como NPM e PyPI, levando à necessidade de defesas automatizadas baseadas em IA. Com a implementação do Cyber Resilience Act na Europa, empresas terão apenas 24 horas para reportar vulnerabilidades, o que pode acelerar a adoção de práticas de segurança. A previsão é que em 2026 ocorra o primeiro ataque totalmente executado por IA, ressaltando a urgência de defesas igualmente automatizadas. Falhas de configuração e ataques a portas de VPN continuarão a ser vulnerabilidades significativas, especialmente para pequenas e médias empresas, que devem adotar medidas de segurança do tipo Zero Trust.

5 formas de se proteger de injeção de prompt em navegadores de IA

O avanço da inteligência artificial (IA) trouxe benefícios significativos, mas também expôs usuários a novos riscos, como a injeção de prompt em navegadores. Esse tipo de ataque ocorre quando hackers inserem códigos maliciosos em prompts, manipulando a IA para realizar atividades fraudulentas, como roubo de dados e credenciais. O artigo apresenta cinco dicas práticas para mitigar esses riscos. Primeiro, é essencial desconfiar das informações fornecidas pela IA, sempre verificando a veracidade com fontes confiáveis. Em segundo lugar, os usuários devem evitar compartilhar dados pessoais sensíveis, como informações bancárias, que podem ser acessadas por cibercriminosos. A atualização constante dos dispositivos é outra medida crucial, pois correções de segurança ajudam a fechar brechas exploráveis. Além disso, é importante monitorar as atividades da IA e verificar a precisão das informações geradas. Por fim, a autenticação multifator (MFA) é recomendada para adicionar uma camada extra de segurança, dificultando o acesso não autorizado mesmo em caso de vazamento de credenciais. Essas práticas são fundamentais para proteger os usuários em um cenário digital cada vez mais complexo.

A industrialização do cibercrime novas ferramentas de phishing

O cenário de cibersegurança está mudando drasticamente com a ascensão de ferramentas de inteligência artificial que facilitam ataques de phishing. Hoje, até mesmo indivíduos sem habilidades de programação podem lançar campanhas sofisticadas, equiparando-se a hackers patrocinados por estados. O artigo destaca três ferramentas principais que estão transformando o panorama das ameaças: WormGPT, que gera e-mails de comprometimento empresarial (BEC) com alta personalização; FraudGPT, um serviço de hacking que oferece um conjunto completo de ferramentas por uma assinatura mensal; e SpamGPT, que permite testes A/B em fraudes em larga escala. A eficácia das estratégias tradicionais de detecção de e-mails está em declínio, pois as mensagens geradas por IA são indistinguíveis das legítimas. A solução proposta é mudar o foco da defesa, não apenas bloqueando e-mails, mas protegendo identidades e neutralizando ataques no ponto de acesso, garantindo que os hackers não consigam obter credenciais. O artigo conclui que, para enfrentar essa nova realidade, é essencial que as empresas adotem uma abordagem proativa e inteligente na defesa contra essas ameaças emergentes.

Qualquer um pode criar vírus com esta nova inteligência artificial

Pesquisadores da Unit 42, da Palo Alto Networks, alertam sobre o uso de Grandes Modelos de Linguagem (LLMs) por cibercriminosos. Ferramentas como WormGPT 4 e KawaiiGPT estão sendo utilizadas para facilitar a criação de malwares e ataques cibernéticos. O WormGPT, que ressurgiu em sua quarta versão, permite que hackers, mesmo sem experiência, desenvolvam códigos de ransomware e mensagens de phishing. Por exemplo, foi solicitado ao WormGPT que criasse um código para encriptar arquivos PDF em sistemas Windows, resultando em um script PowerShell que utiliza o algoritmo AES-256. Já o KawaiiGPT, uma alternativa comunitária, pode gerar mensagens de spear-phishing e scripts para movimentação lateral em sistemas, demonstrando a facilidade com que cibercriminosos podem automatizar ataques. Ambas as LLMs têm atraído a atenção de hackers, com comunidades ativas no Telegram, o que torna a situação ainda mais preocupante para a cibersegurança. A análise indica que o uso dessas ferramentas não é mais uma ameaça teórica, mas uma realidade crescente, exigindo atenção redobrada das empresas para proteger seus dados e sistemas.

Brasil lidera uso de deepfakes em fraudes na América Latina

Um relatório da Sumsub, empresa especializada em verificação de identidade, revelou que o Brasil é o líder na utilização de deepfakes para fraudes na América Latina, com um aumento alarmante de 126% entre 2024 e 2025. Apesar da diminuição geral no número de ataques, a complexidade das fraudes tem crescido, com 28% das tentativas globais sendo consideradas altamente sofisticadas. O uso de deepfakes e identidades sintéticas está se tornando cada vez mais comum, especialmente em um cenário onde 43% das empresas na região relataram ter sofrido fraudes. O relatório destaca que a manipulação de telemetria, onde dados de dispositivos e fluxos de câmera são alterados, está na vanguarda dessas fraudes. A digitalização das fraudes também é crescente, com 1 em cada 50 documentos falsificados gerados por inteligência artificial. Para enfrentar esses desafios, as empresas precisam adotar tecnologias de segurança mais avançadas, como biometria comportamental e monitoramento contínuo, para se protegerem contra esses novos métodos de ataque.

Deepfakes de IA aumentam 1740 e tornam golpes indetectáveis

Um estudo da McAfee revelou que os golpes baseados em inteligência artificial (IA) e deepfakes aumentaram 1.740% nos Estados Unidos em um ano, com quase metade da população já tendo encontrado tais fraudes durante compras online. Os deepfakes, que são vídeos ou áudios manipulados para imitar pessoas reais, tornaram-se tão sofisticados que 39% dos entrevistados afirmaram ter dificuldade em identificá-los. Além disso, 22% dos que acreditavam ser capazes de detectar fraudes acabaram caindo em golpes. Um exemplo notável foi um vídeo falso da cantora Taylor Swift, que promovia uma doação de panelas de luxo, enganando fãs e levando-os a sites fraudulentos. Para se proteger, especialistas recomendam desconfiar de anúncios que parecem bons demais para serem verdade e sempre verificar diretamente os sites oficiais das marcas. A pesquisa destaca a necessidade de vigilância constante e de uma abordagem crítica ao consumir conteúdo online, especialmente em épocas de festas, quando os golpes tendem a aumentar.

Avast lança ferramenta gratuita de IA para combater fraudes digitais

A Avast lançou recentemente o Scam Guardian, uma ferramenta gratuita baseada em inteligência artificial (IA) destinada a combater fraudes digitais. Integrada ao Avast Free Antivirus, essa nova funcionalidade visa proteger os usuários de golpes online, especialmente em um cenário onde cibercriminosos estão utilizando IA para automatizar fraudes. O Scam Guardian é descrito como uma ‘investigadora experiente de fraudes’, capaz de analisar não apenas links maliciosos, mas também o contexto e a linguagem das URLs suspeitas, identificando sinais de perigo. Além disso, a ferramenta bloqueia ameaças ocultas no código de sites, promovendo uma navegação mais segura. A Avast também oferece uma versão premium, o Scam Guardian Pro, que proporciona proteção adicional contra golpes via e-mail e SMS. O aumento alarmante de fraudes digitais, com um crescimento de 186% em registros pessoais vazados e 466% em casos de phishing no primeiro trimestre de 2025, destaca a urgência de soluções eficazes. A diretora de produtos da Gen Digital, Leena Elias, enfatiza a importância de disponibilizar proteção robusta contra golpes, especialmente em tempos de crescente violação de dados.

Investimentos em SOC A chave para a segurança cibernética eficaz

As empresas atualmente são desafiadas a manter entre 6 a 8 ferramentas de detecção de ameaças, consideradas essenciais na defesa cibernética. No entanto, muitos líderes de segurança enfrentam dificuldades para justificar a alocação de recursos para suas equipes de Centro de Operações de Segurança (SOC), resultando em investimentos assimétricos. Um estudo de caso recente revelou que, apesar de oito ferramentas de segurança de e-mail falharem em detectar um ataque de phishing sofisticado direcionado a executivos, as equipes do SOC conseguiram identificar a ameaça rapidamente após relatos de funcionários. Essa eficácia se deve a um investimento equilibrado ao longo do ciclo de alerta, que não negligencia o SOC. O artigo destaca que a falta de recursos no SOC pode dificultar a identificação de ameaças e sobrecarregar os analistas com alertas, comprometendo a capacidade de investigação. A adoção de plataformas de SOC baseadas em inteligência artificial (IA) está emergindo como uma solução eficaz, permitindo que equipes pequenas realizem investigações mais profundas e reduzam significativamente os falsos positivos. O investimento em SOC não apenas maximiza o retorno sobre os investimentos em ferramentas de detecção, mas também se torna crucial à medida que as ameaças se tornam mais sofisticadas.

Norton revela ameaças baseadas em IA no Brasil e suas contramedidas

Em um recente evento, a Norton apresentou dados alarmantes sobre o aumento de ciberataques no Brasil, destacando o uso crescente de inteligência artificial (IA) em golpes de engenharia social. A pesquisa revelou que 68% dos brasileiros estão mais preocupados com fraudes online do que no ano anterior, e 74% temem pela segurança de seus dados pessoais. A sofisticação dos ataques inclui a combinação de SMS, e-mails e redes sociais, utilizando conteúdos gerados por IA, como deepfakes, para enganar as vítimas. A Norton, em resposta, atualizou suas ferramentas de segurança, como o Norton Scam Protection, que agora conta com o Norton Genie AI, capaz de identificar e bloquear golpes em tempo real, especialmente em mensagens SMS. A empresa bloqueia cerca de 110 tentativas de golpe relacionadas à engenharia social por segundo, evidenciando a gravidade da situação. Com 65% dos brasileiros incapazes de identificar golpes gerados por IA, a necessidade de soluções eficazes de cibersegurança se torna ainda mais urgente.

Google nega uso de e-mails do Gmail para treinar IAs

O Google se defendeu de acusações de que estaria utilizando e-mails do Gmail para treinar seus modelos de inteligência artificial sem o consentimento dos usuários. As alegações surgiram após uma análise da empresa de segurança Malwarebytes, que sugeriu que mudanças nas configurações do Gmail permitiriam a análise de e-mails pessoais para alimentar ferramentas como o Gemini. O Google, em resposta, afirmou que não altera as configurações dos usuários e que os recursos inteligentes do Gmail, como a Escrita e Resposta Inteligentes, existem há anos sem uso do conteúdo dos e-mails para treinar suas IAs. Após a resposta do Google, a Malwarebytes revisou sua posição, reconhecendo que as acusações foram baseadas em mal-entendidos sobre a apresentação das configurações do Gmail. A empresa de segurança esclareceu que o Gmail apenas escaneia e-mails para ativar recursos como filtragem de spam e sugestões de escrita, práticas consideradas normais em termos de segurança e privacidade. O artigo também menciona que os usuários podem desativar esses recursos nas configurações do Gmail, caso desejem maior controle sobre suas informações.

Brasil é vice-campeão mundial em ciberataques com 28 milhões de golpes no Pix

O Brasil enfrenta um alarmante aumento nas fraudes digitais, com 28 milhões de golpes via Pix registrados entre janeiro e setembro de 2025. O país ocupa o segundo lugar no ranking global de ciberataques, com 700 milhões de tentativas anuais, o que equivale a 1.379 ataques por minuto. A pesquisa da Associação de Defesa de Dados Pessoais e do Consumidor (ADDP) revela que a maioria das fraudes ocorre em compras online, com 2,7 milhões de casos, seguidos por 1,6 milhão de golpes via WhatsApp e 1,5 milhão relacionados a phishing. Os golpes financeiros, especialmente os que envolvem o Pix, representam 47% das fraudes totais, enquanto 15% estão ligados ao roubo de identidade. O estudo também destaca que pessoas acima de 50 anos são as mais afetadas, representando 53% das vítimas. Além disso, a utilização de tecnologias avançadas, como deepfakes e inteligência artificial, tem contribuído para a sofisticação dos golpes. O presidente da ADDP, Francisco Gomes Junior, alerta que a falta de educação digital e a popularização do Pix têm facilitado a atuação de quadrilhas organizadas, resultando em prejuízos estimados entre R$ 10 bilhões e R$ 112 bilhões, muitos dos quais não são reportados.

AGU derruba site que vendia deepfakes com pornografia infantil

A Advocacia Geral da União (AGU) tomou medidas para desativar um site estrangeiro que comercializava deepfakes utilizados na produção de pornografia infantil. A ação foi desencadeada após uma notificação extrajudicial da Procuradoria Nacional da União de Defesa da Democracia (PNDD). A investigação, realizada em parceria com o Pulitzer Center, revelou que o site utilizava inteligência artificial para criar imagens falsas a partir de fotos reais de crianças, que eram então vendidas na dark web. A tecnologia de deepfake, baseada em deep learning, permite a criação de conteúdos visuais extremamente realistas, o que representa um risco significativo, especialmente quando utilizada para fins ilícitos como a exploração sexual infantil. A AGU conseguiu que o site reconhecesse a ilegalidade de suas atividades e o retirasse do ar. Este incidente destaca a crescente preocupação com o uso de IA em crimes online, especialmente em um contexto onde a identificação de conteúdos falsificados se torna cada vez mais difícil. Além disso, o Brasil está em processo de regulamentação do uso de IA, com o Marco Legal da IA em análise na Câmara dos Deputados, visando aumentar a segurança e a transparência no uso dessas tecnologias.

Vulnerabilidades críticas em motores de IA afetam Nvidia e outras empresas

Pesquisadores da Oligo identificaram vulnerabilidades graves em motores de inferência de inteligência artificial, impactando grandes empresas como Meta, Microsoft e Nvidia. As falhas, que permitem a execução de código remoto, estão ligadas ao uso inseguro do ZeroMQ e à desserialização de dados com o módulo pickle do Python, resultando em um padrão de vulnerabilidade denominado ShadowMQ. A principal brecha foi encontrada no framework Llama da Meta, classificada como CVE-2024-50050, com um score CVSS de 6,3/9,3, que foi corrigida em outubro de 2025. Outras tecnologias, como a TensorRT-LLM da Nvidia e o Sarathi-Serve da Microsoft, também apresentaram falhas, com algumas ainda sem correção. A exploração dessas vulnerabilidades pode permitir que invasores executem códigos arbitrários, aumentem privilégios e até roubem modelos de IA. A situação é crítica, pois comprometer um único motor de inferência pode ter consequências severas, como a inserção de agentes maliciosos nas LLMs. O alerta é para que as empresas revisem suas implementações e apliquem as correções necessárias para evitar possíveis ataques.

Hackers chineses utilizam IA para automatizar ciberespionagem

Hackers chineses estão utilizando inteligência artificial (IA) para aprimorar suas campanhas de ciberespionagem, conforme identificado pela Anthropic, a empresa responsável pela ferramenta Claude Code. Essa nova abordagem foi observada em ataques a cerca de 30 empresas internacionais, incluindo instituições financeiras e agências governamentais. O relatório revela que, em ataques bem-sucedidos, a intervenção humana foi mínima, com a IA executando de 80 a 90% das tarefas necessárias.

A operação dos hackers foi organizada em seis fases, começando pela seleção do alvo e culminando na exfiltração de dados confidenciais. A IA foi manipulada para atuar como um agente autônomo, encontrando vulnerabilidades, coletando credenciais e explorando sistemas. A Anthropic respondeu banindo as contas associadas a esses ataques e implementando novos mecanismos de defesa. Essa evolução na ciberespionagem, com uma IA promovendo um ataque de larga escala, levanta preocupações sobre a profissionalização do cibercrime e o uso crescente de tecnologias avançadas para atividades ilícitas.

A lacuna de exposição em IA pode ser o maior problema de segurança

Um novo relatório da Tenable destaca a crescente preocupação com a segurança em ambientes que utilizam inteligência artificial (IA). Com 89% das organizações já implementando ou testando cargas de trabalho de IA, a pesquisa revela que apenas 22% das empresas classificam e criptografam completamente seus dados de IA, deixando 78% vulneráveis a ataques. Além disso, 34% dos adotantes de IA já enfrentaram violações relacionadas à tecnologia, sendo que a maioria dessas falhas decorre de vulnerabilidades internas e não de ataques sofisticados aos modelos de IA. As principais causas de brechas incluem vulnerabilidades de software (21%) e ameaças internas (18%). A Tenable alerta que as empresas estão escalando suas operações de IA mais rapidamente do que conseguem garantir a segurança, resultando em defesas reativas. A pesquisa também indica que cerca de 51% das empresas seguem diretrizes mínimas, como o NIST AI Risk Management Framework, e apenas 26% realizam testes de segurança específicos para IA. Para mitigar a ’lacuna de exposição em IA’, a Tenable recomenda que as empresas priorizem controles fundamentais, como governança de identidade e monitoramento de configurações, para estabelecer uma postura de segurança robusta.

IA com 30 anos de memória é usada para combater crimes digitais

A Cisco anunciou o desenvolvimento de uma nova inteligência artificial (IA) que utiliza 30 anos de dados sobre ataques cibernéticos para aprimorar a segurança digital. O projeto visa expandir o modelo Foundation-Sec-8B, que atualmente opera com 8 bilhões de parâmetros, para 17 bilhões, aumentando a precisão na detecção de ameaças. Raj Chopra, vice-presidente sênior da Cisco, destacou que o foco não é criar um sucessor, mas sim um modelo expandido que utilize um vasto arsenal de informações coletadas ao longo das últimas três décadas, incluindo incidentes e manuais de treinamento. A equipe de especialistas em segurança digital da Cisco liderará esse processo, que deve ser concluído até o final do ano. Além disso, a empresa está desenvolvendo novos modelos de IA para complementar essa versão atualizada, com o objetivo de apoiar os profissionais de segurança no combate ao cibercrime com ferramentas mais sofisticadas.

Hackers Chineses Usam IA para Infiltrar Grandes Empresas de Tecnologia

Um ataque cibernético em larga escala, realizado quase inteiramente por inteligência artificial, foi revelado pela Anthropic. O incidente, que ocorreu em setembro de 2025, envolveu hackers patrocinados pelo Estado chinês que utilizaram a IA Claude Code para comprometer cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais. A campanha de espionagem se destacou pela automação sem precedentes, com a IA gerenciando 80-90% das operações, exigindo intervenção humana apenas em 4-6 pontos críticos. Os atacantes exploraram capacidades avançadas da IA, como execução de tarefas complexas e operação autônoma, para realizar reconhecimento, desenvolver códigos de exploração e exfiltrar dados classificados. A Anthropic detectou a atividade suspeita e iniciou uma investigação, resultando na identificação de contas comprometidas e na notificação das organizações afetadas. Este incidente sinaliza uma diminuição nas barreiras para ataques cibernéticos sofisticados, permitindo que grupos menos experientes realizem operações que antes exigiam recursos significativos. A empresa recomenda que equipes de segurança experimentem aplicações de IA para melhorar a detecção de ameaças e a resposta a incidentes.

Ciberespionagem Atores estatais da China usam IA para ataques

Em setembro de 2025, atores de ameaças patrocinados pelo Estado da China utilizaram tecnologia de inteligência artificial (IA) desenvolvida pela Anthropic para realizar uma campanha de ciberespionagem sofisticada. Os atacantes empregaram as capacidades ‘agentes’ da IA para executar ataques cibernéticos de forma autônoma, sem intervenção humana significativa. A operação, denominada GTG-1002, visou cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais, resultando em algumas intrusões bem-sucedidas. A Anthropic identificou que a IA foi utilizada para realizar diversas etapas do ciclo de ataque, como reconhecimento, descoberta de vulnerabilidades e exfiltração de dados. Embora a operação tenha demonstrado um uso inovador da IA, também revelou limitações, como a tendência da IA de ‘alucinar’ dados, o que pode comprometer a eficácia das operações. Este incidente destaca a evolução das táticas de ciberataques, onde grupos menos experientes podem potencialmente realizar ataques em larga escala com o suporte de sistemas de IA.

Vulnerabilidades críticas em motores de IA expõem riscos de segurança

Pesquisadores de cibersegurança identificaram vulnerabilidades críticas de execução remota de código em motores de inferência de inteligência artificial (IA) de grandes empresas como Meta, Nvidia e Microsoft, além de projetos open-source como vLLM e SGLang. O problema central está relacionado ao uso inseguro do ZeroMQ (ZMQ) e à desserialização do Python, resultando em um padrão denominado ShadowMQ. A vulnerabilidade mais significativa foi encontrada no framework Llama da Meta (CVE-2024-50050), que permitia a execução de código arbitrário ao desserializar dados maliciosos. Outras plataformas, como NVIDIA TensorRT-LLM e Microsoft Sarathi-Serve, também apresentaram falhas semelhantes. A exploração dessas vulnerabilidades pode permitir que atacantes executem código arbitrário, escalem privilégios e até realizem roubo de modelos de IA. Com a rápida evolução dos projetos de IA, a reutilização de código inseguro se torna um risco crescente. Além disso, um novo relatório revelou que técnicas de injeção de JavaScript podem comprometer navegadores integrados em editores de código, aumentando ainda mais as preocupações de segurança. É crucial que as empresas adotem medidas de mitigação, como desativar recursos de execução automática e auditar servidores de integração.

Cibersabotagem em infraestruturas essenciais se torna ameaça crescente

A cibersabotagem, especialmente por governos autoritários, está se tornando uma preocupação global crescente, conforme destacado por Mike Burgess, diretor-geral da Organização Australiana de Inteligência de Segurança (ASIO). Em um discurso recente, Burgess alertou sobre a disposição de regimes totalitários em utilizar técnicas de cibersabotagem para interromper ou destruir infraestruturas críticas, como redes de telecomunicação e sistemas financeiros. Ele mencionou que incidentes recentes na Austrália, que resultaram em interrupções significativas, podem ter consequências fatais, como a morte de três pessoas.

Vazamento cibernético na China revela operações de hacking globais

Um recente vazamento de dados na empresa de segurança chinesa Knownsec expôs mais de 12.000 documentos classificados que revelam operações de hacking ligadas ao governo chinês. Os arquivos vazados incluem informações sobre ‘armas cibernéticas’, ferramentas internas de inteligência artificial e uma lista extensa de alvos internacionais, abrangendo mais de vinte países, como Japão, Índia e Reino Unido. Entre as informações preocupantes, estão planilhas que detalham ataques a 80 alvos estrangeiros, incluindo empresas de infraestrutura crítica e telecomunicações. O vazamento também revelou dados significativos, como 95GB de registros de imigração da Índia e 3TB de logs de chamadas da LG U Plus da Coreia do Sul. Os especialistas identificaram a presença de Trojans de Acesso Remoto (RATs) que podem comprometer sistemas operacionais populares, além de dispositivos de hacking de hardware utilizados pela Knownsec. Apesar das tentativas do governo chinês de desmentir o incidente, a profundidade da infiltração sugere uma colaboração estreita entre empresas privadas e operações estatais. Este evento destaca a necessidade de uma defesa cibernética mais robusta, que combine monitoramento em tempo real e segmentação de rede.

Google lança tecnologia de privacidade com Private AI Compute

No dia 12 de novembro de 2025, o Google apresentou uma nova tecnologia chamada Private AI Compute, que visa processar consultas de inteligência artificial (IA) em uma plataforma segura na nuvem. A empresa afirma que essa tecnologia desbloqueia a velocidade e o poder dos modelos de nuvem Gemini para experiências de IA, garantindo que os dados pessoais dos usuários permaneçam privados e inacessíveis, nem mesmo ao Google.

O Private AI Compute é descrito como um ’espaço seguro e fortificado’ para o processamento de dados sensíveis, utilizando unidades de processamento de tensor Trillium (TPUs) e enclaves de inteligência Titanium (TIE). Essa infraestrutura é projetada para aproveitar a velocidade computacional da nuvem, mantendo as garantias de segurança e privacidade do processamento local.

Motorola e o lifestyle tech expectativas para a Black Friday

No episódio especial do podcast Canaltech, a Motorola é destaque ao discutir suas inovações em smartphones dobráveis e o uso de inteligência artificial. A diretora de Marketing da Motorola no Brasil, Stella Colucci, compartilha detalhes sobre as parcerias da marca com empresas como Pantone e Swarovski, que visam integrar tecnologia e estilo de vida. O programa também aborda as expectativas para as promoções da Motorola durante a Black Friday, um evento que promete atrair consumidores em busca de ofertas em tecnologia. Além disso, o podcast menciona outros tópicos relevantes, como mudanças no WhatsApp e fraudes envolvendo cartões de crédito, ressaltando a importância da cibersegurança no cenário atual. O episódio é uma oportunidade para os ouvintes se atualizarem sobre as tendências do setor e as estratégias da Motorola para se destacar no mercado.

Inovação e Chips O Futuro da AMD no Brasil

No episódio mais recente do Podcast Canaltech, os repórteres discutem as inovações apresentadas durante o AMD Partner Summit, um evento que reuniu parceiros e a mídia para discutir o futuro da AMD no Brasil. Sérgio Santos, diretor-geral da AMD Brasil, e Patrícia Martins, head da unidade de gráficos, destacaram o foco da empresa em inteligência artificial e inovação, além de suas expectativas de crescimento no mercado brasileiro. Matheus Barbosa, gerente de marketing da Gigabyte Brasil, também participou, abordando a parceria entre as duas empresas e as perspectivas para o mercado gamer até 2026. O podcast também trouxe à tona questões relevantes sobre segurança cibernética, como o vazamento de 40 milhões de downloads de vírus da Play Store e a prisão de um funcionário do Banco do Brasil por roubo de dados de clientes, ressaltando a importância da segurança digital em um cenário de crescente digitalização.

Como a Microsoft quer reinventar a segurança digital na era da IA

Durante o Seattle Security Campus Tour, a Microsoft apresentou sua visão sobre como a inteligência artificial (IA) e a colaboração global estão moldando o futuro da segurança digital. Frank X. Shaw, Diretor de Comunicação Global da Microsoft, destacou que a confiança é fundamental para a inovação, introduzindo o Secure Future Initiative (SFI), um programa que orienta o desenvolvimento de produtos e a resposta a incidentes. Vasu Jakkal, vice-presidente corporativa de Segurança, enfatizou que a segurança deve ser parte integrante de todos os processos da empresa, processando diariamente mais de 100 trilhões de sinais de segurança. A automação na detecção de falhas humanas foi exemplificada por um incidente em que um token interno foi exposto no GitHub, gerando um alerta imediato. Tori Westerhoff, do Red Team de IA, revelou que sua equipe simula ataques aos modelos de IA da Microsoft, explorando vulnerabilidades e comportamentos inesperados. Por fim, Herain Oberoi apresentou uma plataforma de defesa integrada que utiliza IA para proteger dados e identidades, ressaltando a importância do equilíbrio entre autonomia da IA e responsabilidade humana. A segurança, segundo os executivos, não é apenas um produto, mas a base para inovação e liberdade digital.

Por dentro da divisão da Microsoft que caça hackers pelo mundo

Durante o Microsoft Security Campus Tour, a Digital Crimes Unit (DCU) da Microsoft foi apresentada como um núcleo global dedicado à investigação de crimes digitais. Sob a liderança de Steve Masada, a equipe atua em três frentes principais: interromper infraestruturas criminosas, fornecer suporte jurídico e orientar empresas e governos em resposta a incidentes. A DCU monitora centenas de grupos de hackers e analisa bilhões de sinais de segurança diariamente, utilizando dados de produtos como Windows e Azure para agir de forma preventiva. Além disso, a equipe realiza simulações de crise cibernética para preparar empresas para possíveis ataques. Richard Domingues Boscovich, advogado sênior da DCU, destacou um caso recente de uso indevido de inteligência artificial generativa, onde imagens difamatórias foram criadas e disseminadas. A investigação levou à identificação dos responsáveis e à aplicação de ações legais. A DCU busca neutralizar o ecossistema criminoso e tornar o cibercrime mais difícil e caro. A abordagem da Microsoft enfatiza a antecipação de ameaças e a utilização de tecnologia como ferramenta de defesa, consolidando a segurança digital como um pilar essencial da inovação.

IA vai roubar empregos? O futuro é mais colaborativo do que você imagina

O podcast Canaltech discute a perspectiva da inteligência artificial (IA) no mercado de trabalho, com base em uma pesquisa do Instituto dos Engenheiros Eletricistas e Eletrônicos (IEEE). A pesquisa sugere que, ao invés de substituir empregos, a IA deve expandir oportunidades de trabalho em 2026. O repórter Marcelo Fischer entrevista Gabriel Gomes de Oliveira, professor da Universidade Estadual de Campinas, que destaca que a colaboração entre humanos e máquinas será fundamental. O episódio também aborda outras questões relevantes, como promessas da Apple sobre a Siri com IA, demissões na Rockstar e vazamentos de dados na dark web. A discussão enfatiza que a adoção da IA pode levar a um ambiente de trabalho mais colaborativo, onde as habilidades humanas são complementadas pela tecnologia, ao invés de serem substituídas por ela.

Estudo do MIT sobre ransomware e IA é retirado após críticas

Um estudo da MIT Sloan School of Management, que afirmava que 80,83% dos ataques de ransomware eram realizados por criminosos utilizando inteligência artificial (IA), foi retirado após críticas severas de especialistas em cibersegurança. O estudo, co-autorado por pesquisadores do MIT e executivos da Safe Security, foi amplamente desacreditado por figuras proeminentes da área, como Kevin Beaumont e Marcus Hutchins, que consideraram as alegações como ‘ridículas’ e ‘sem provas’. Beaumont destacou que o estudo mencionava grupos de ransomware que não utilizam IA e até citou o Emotet, que não está ativo há anos. Após a repercussão negativa, o MIT anunciou que o documento estava sendo revisado. O autor Michael Siegel afirmou que o objetivo do estudo era alertar sobre o aumento do uso de IA em ataques cibernéticos e a necessidade de medições adequadas. A controvérsia ressalta a tensão crescente na pesquisa em cibersegurança, onde o entusiasmo por IA pode ofuscar a análise factual. Embora a IA tenha potencial tanto para ataques quanto para defesas, exagerar seu uso malicioso pode distorcer prioridades, especialmente quando proveniente de instituições respeitáveis como o MIT.

Previsão de Cibersegurança 2026 Google prevê aumento de ataques impulsionados por IA

O relatório ‘Cybersecurity Forecast 2026’ do Google Cloud destaca uma mudança significativa no cenário de cibersegurança, com a adoção crescente de inteligência artificial (IA) tanto por atacantes quanto por defensores. O documento, que se baseia em análises de especialistas em segurança do Google, prevê que o próximo ano será marcado por uma evolução tecnológica rápida e técnicas de ataque cada vez mais sofisticadas. Um dos principais achados é a normalização do uso de IA por cibercriminosos, que estão integrando essa tecnologia em todos os ciclos de ataque, permitindo campanhas mais rápidas e ágeis. A vulnerabilidade de injeção de prompt, onde atacantes manipulam sistemas de IA para executar comandos ocultos, é uma preocupação crescente. Além disso, a engenharia social habilitada por IA, como campanhas de vishing com clonagem de voz, está se tornando mais comum, dificultando a detecção de ataques de phishing. O relatório também menciona que o ransomware e a extorsão continuarão a ser as categorias mais disruptivas e financeiramente prejudiciais, com foco em provedores terceirizados e vulnerabilidades críticas. A previsão sugere que as equipes de segurança devem se adaptar rapidamente, utilizando metodologias de IA para fortalecer suas defesas e preparar-se para um aumento nas atividades de engenharia social e operações de estados-nação.

Google descobre malware PROMPTFLUX que usa IA para evasão

O Google revelou a descoberta de um novo malware chamado PROMPTFLUX, que utiliza um script em Visual Basic (VBScript) para interagir com a API do modelo de inteligência artificial Gemini. Este malware é capaz de gerar seu próprio código-fonte, permitindo técnicas de ofuscação e evasão em tempo real, o que dificulta a detecção por sistemas de segurança baseados em assinaturas estáticas. A funcionalidade inovadora do PROMPTFLUX é parte de um componente denominado ‘Thinking Robot’, que consulta periodicamente o modelo de linguagem Gemini para obter novas técnicas de evasão. Embora atualmente o malware não tenha capacidade de comprometer redes ou dispositivos, sua evolução e a possibilidade de auto-modificação indicam um potencial de ameaça crescente. O Google também observou que atores maliciosos estão utilizando IA não apenas para aumentar a produtividade, mas para desenvolver ferramentas que se adaptam durante a execução. Além disso, o uso de IA por grupos patrocinados por estados, como os da China e Irã, para criar conteúdo enganoso e desenvolver infraestrutura técnica para exfiltração de dados, destaca a crescente sofisticação das ameaças cibernéticas. A expectativa é que o uso de IA por atores maliciosos se torne a norma, aumentando a velocidade e a eficácia de suas operações.

Por que a bateria do celular ainda é o maior desafio da tecnologia

No episódio mais recente do Podcast Canaltech, especialistas discutem os desafios enfrentados na busca por baterias de celular com maior autonomia. Hudson Zanin, professor da Unicamp, e André Varga, diretor de produto da JOVI, abordam os avanços nas tecnologias de baterias, como as de íon-lítio e silício-carbono, que prometem melhorar a duração das cargas. Apesar dos progressos, a corrida por baterias que durem mais tempo longe da tomada ainda enfrenta barreiras significativas, tanto do ponto de vista técnico quanto de mercado. Os convidados também exploram como a inteligência artificial pode ser uma aliada ou um obstáculo nesse processo. Além disso, o episódio traz atualizações sobre lançamentos de produtos e falhas de segurança que afetam bilhões de usuários, destacando a relevância contínua da cibersegurança no contexto tecnológico atual.

O novo consumidor como a IA está mudando o marketing, segundo o Google

No episódio mais recente do Podcast Canaltech, Guilherme Haas entrevista Arthur Borges, Head de Negócios para Mid-Market no Google, sobre a transformação do marketing impulsionada pela inteligência artificial (IA). A conversa se baseia no estudo ‘Mapa da Influência’, realizado em parceria com a Boston Consulting Group, que revela como o tradicional funil de marketing evoluiu para uma jornada mais dinâmica, caracterizada por quatro hábitos principais: buscar, rolar, assistir e comprar. Borges destaca a importância da maturidade digital e como a IA pode ser utilizada para personalizar experiências de forma responsável. Além disso, ele menciona as habilidades que os profissionais de marketing e tecnologia devem desenvolver para se adaptarem a essas mudanças. O podcast também aborda outras notícias relevantes do setor, como a entrada da OpenAI no mercado e o Brasil sendo um dos principais alvos de fraudes digitais.

IA e Regulamentação Tendências em Cibersegurança para 2026

No último Fórum Latinoamericano de Segurança da ESET, realizado no Uruguai, especialistas discutiram as tendências em cibersegurança até 2026, destacando o uso crescente da inteligência artificial (IA) em crimes virtuais. Pesquisadores como Martina López e Mario Micucci alertaram para o aumento do uso de IA agêntica, que permite a execução de ataques cibernéticos com mínima intervenção humana, especialmente em phishing e spear-phishing. Além disso, a evolução dos ransomwares, incluindo o modelo ransomware-as-a-service (RaaS), foi enfatizada, com a introdução de ransomwares desenvolvidos com IA, como o LunaLock. A regulamentação da IA também foi um ponto central, com a necessidade de legislações que garantam transparência e proteção contra abusos, como deepfakes. O Ato de Inteligência Artificial da União Europeia foi citado como um exemplo positivo, exigindo que empresas informem sobre o uso de IA. O artigo conclui que a cibersegurança enfrentará desafios significativos, com a necessidade de auditorias eficazes e regulamentações que protejam a integridade dos dispositivos tecnológicos.

Polícia usa IA para decifrar comunicação de cibercriminosos

A Polícia Federal da Austrália (AFP) está desenvolvendo uma ferramenta de inteligência artificial (IA) para decifrar a comunicação de cibercriminosos, especialmente aqueles que utilizam emojis e gírias das gerações Z e Alpha em discussões online sobre crimes. Esses criminosos, conhecidos como ‘crimefluencers’, atraem jovens e crianças para grupos de ódio, utilizando uma linguagem que pode ser difícil de interpretar para as autoridades. A comissária da AFP, Krissy Barrett, destacou que a maioria das vítimas são pré-adolescentes e jovens, o que motivou a criação dessa ferramenta. O projeto ainda está em fase de desenvolvimento e busca criar um protótipo que consiga interpretar a comunicação criptografada em grupos de bate-papo. A expectativa é que a IA consiga traduzir termos específicos com base no contexto e na semântica, embora o desafio de acompanhar a constante evolução das gírias e emojis possa dificultar a eficácia da ferramenta. A iniciativa faz parte de uma força-tarefa maior da Five Eyes Law Enforcement Group, que inclui países como Reino Unido, EUA, Canadá e Nova Zelândia, todos trabalhando juntos para combater crimes digitais.

OpenAI lança Aardvark, pesquisador de segurança autônomo com IA

A OpenAI anunciou o lançamento do Aardvark, um pesquisador de segurança autônomo alimentado pelo modelo de linguagem GPT-5. Este agente de inteligência artificial foi projetado para ajudar desenvolvedores e equipes de segurança a identificar e corrigir vulnerabilidades em código de forma escalável. Atualmente em beta privada, o Aardvark analisa repositórios de código-fonte continuamente, identificando vulnerabilidades, avaliando sua explorabilidade e propondo correções. O modelo GPT-5, introduzido em agosto de 2025, oferece capacidades de raciocínio mais profundas e um ‘roteador em tempo real’ para otimizar a interação com os usuários.

Google Introduz Proteção com IA no Android Contra Golpes Móveis

Em resposta à crescente ameaça de golpes móveis, a Google anunciou melhorias significativas na proteção do Android, utilizando inteligência artificial para combater fraudes. Em um relatório divulgado em 30 de outubro de 2025, a empresa destacou que suas defesas baseadas em IA superam as de outras plataformas, com um impacto positivo na segurança dos usuários. No último ano, os golpes móveis geraram perdas superiores a 400 bilhões de dólares globalmente. O sistema do Android processa mensalmente mais de 10 bilhões de chamadas e mensagens suspeitas, bloqueando mais de 100 milhões de números fraudulentos recentemente. A pesquisa realizada pela YouGov, envolvendo 5.000 usuários nos EUA, Índia e Brasil, revelou que usuários do Android, especialmente os do Google Pixel, relataram menos mensagens de golpe em comparação aos usuários do iOS. Além disso, a análise de segurança da Leviathan Security Group confirmou que o Pixel 10 Pro oferece a melhor proteção contra fraudes. As funcionalidades incluem filtragem automática de spam e detecção de padrões de conversação fraudulentos, garantindo a privacidade dos usuários. Com atualizações contínuas através do Google Play Protect, o Android se mantém à frente das ameaças móveis em constante evolução.

Brasil lidera ranking mundial de fraudes digitais

O Brasil ocupa a primeira posição no ranking global de vítimas de fraudes digitais, segundo o Índice de Fraude 2025, elaborado pela Veriff. A pesquisa revela que os brasileiros enfrentam ataques online cinco vezes mais do que cidadãos dos Estados Unidos e do Reino Unido. Aproximadamente 26% dos entrevistados no Brasil relataram ter sido vítimas de fraudes nos últimos doze meses, enquanto as taxas nos EUA e Reino Unido são de 15% e 10%, respectivamente. O impacto financeiro é alarmante, com quase 40% dos brasileiros perdendo até R$ 1.300 em golpes, e 5% relatando perdas superiores a R$ 26 mil em um único incidente. A pesquisa também destaca o papel crescente da inteligência artificial (IA) e dos deepfakes, que contribuíram para um aumento de 21% nas fraudes digitais em comparação ao ano anterior. Quase metade dos entrevistados expressou preocupação com o uso de IA em golpes, refletindo um clima de insegurança. Apesar disso, os brasileiros demonstram maior disposição para adotar sistemas de proteção digital em comparação à média global, indicando uma conscientização crescente sobre a segurança online.

Simulação de Brechas A Nova Fronteira da Cibersegurança

O Picus Breach and Simulation (BAS) Summit deste ano destacou uma mudança significativa na abordagem da cibersegurança, enfatizando que a defesa não se trata mais de prever ataques, mas de provar a eficácia das defesas existentes. Com a velocidade com que novos exploits surgem e se espalham, a necessidade de testar controles em tempo real se torna crucial. O BAS evoluiu de uma atividade anual de conformidade para uma prática diária que valida se as defesas estão realmente funcionando. A simulação de comportamentos adversariais em ambientes controlados permite que as equipes de segurança entendam como suas defesas reagem a ataques, focando em resultados e não apenas em inventários de vulnerabilidades. Além disso, a integração da inteligência artificial no processo de cibersegurança se mostrou mais eficaz na organização de dados do que na criação de novos, permitindo uma resposta mais rápida e precisa a ameaças. O evento também evidenciou que a validação contínua das defesas pode transformar a abordagem de ‘corrigir tudo’ para ‘corrigir o que realmente importa’, priorizando as vulnerabilidades que representam riscos reais. Essa mudança de paradigma é essencial para que as organizações se mantenham à frente das ameaças cibernéticas.