Ia

OpenAI lança ChatGPT Health com foco em saúde e privacidade

A OpenAI anunciou o lançamento do ChatGPT Health, uma nova funcionalidade que permite aos usuários interagir com um chatbot sobre questões de saúde. Este espaço dedicado oferece a opção de conectar de forma segura registros médicos e aplicativos de bem-estar, como Apple Health e MyFitnessPal, para fornecer respostas personalizadas, conselhos nutricionais e sugestões de exercícios. A empresa enfatiza que o ChatGPT Health foi projetado para apoiar, e não substituir, cuidados médicos, e que as conversas são protegidas por criptografia e isolamento. Além disso, as interações na plataforma não são utilizadas para treinar modelos de IA da OpenAI. A nova funcionalidade está disponível para usuários fora da Área Econômica Europeia, Suíça e Reino Unido. A OpenAI também destacou que o modelo foi avaliado com base em padrões clínicos, visando garantir que ele atenda às necessidades reais dos usuários. No entanto, a empresa enfrenta críticas e processos judiciais relacionados a informações de saúde potencialmente prejudiciais fornecidas por suas ferramentas, levantando preocupações sobre a segurança e a confiabilidade das informações médicas geradas por IA.

Extensão do Claude para Chrome pode expor dados de usuários

Especialistas da Zenity Labs alertaram sobre uma nova extensão do Claude, assistente de IA da Anthropic, que opera no Google Chrome e pode expor dados pessoais dos usuários a riscos de segurança. A extensão, que foi lançada em versão beta, permite que a ferramenta interaja com outros sites sem supervisão humana, o que significa que, uma vez instalada, ela pode navegar e realizar ações em plataformas como Google Drive e Slack como se fosse o próprio usuário. Isso levanta preocupações sobre a segurança, pois a extensão permanece conectada continuamente, sem a possibilidade de ser desativada manualmente. Os pesquisadores observaram que a extensão pode acessar informações sensíveis, como tokens de login, e realizar ações prejudiciais, como excluir e-mails ou modificar arquivos, sem o conhecimento do usuário. Além disso, a proteção básica do Claude, que solicita permissão do usuário antes de realizar ações, falha em impedir essas atividades, levando a um cenário de ‘fadiga de aprovação’, onde os usuários clicam em ‘OK’ sem verificar as ações da IA. Essa situação destaca a necessidade urgente de uma revisão das práticas de segurança em relação a extensões de navegador e ferramentas de IA.

A Evolução da Cibersegurança em um Mundo Impulsionado por IA

A cibersegurança está passando por uma transformação significativa, impulsionada por mudanças nas infraestruturas de nuvem, pontos finais distribuídos e cadeias de suprimento complexas. O foco da segurança deixou de ser uma coleção de soluções pontuais e passou a ser uma questão de arquitetura, confiança e velocidade de execução. O relatório analisa como áreas centrais da cibersegurança, como autenticação, segurança de dados em SaaS, proteção da cadeia de suprimento de software e gerenciamento de riscos humanos, estão se adaptando a adversários que utilizam técnicas técnicas e sociais de forma mais rápida e integrada.

Deepfakes Riscos e Como se Proteger

Os deepfakes, conteúdos gerados por inteligência artificial que alteram vídeos e fotos de forma hiper-realista, representam um dos maiores desafios para a segurança digital atualmente. Com um aumento alarmante de 700% em fraudes relacionadas a deepfakes no Brasil, segundo a Sumsub, a manipulação de conteúdo pode ter fins ilícitos, como desinformação e golpes. Personalidades públicas são frequentemente alvo, pois há uma abundância de material audiovisual disponível para a criação desses conteúdos. O advogado Mario Cosac destaca que a desinformação pode impactar decisões importantes, como ocorreu no plebiscito do Brexit, enquanto Augusto Salomon, CEO da StarMind, alerta para a falta de preparo das empresas na adoção de ferramentas de IA. Embora não haja legislação específica no Brasil sobre deepfakes, iniciativas em outros países, como a Dinamarca, propõem que cidadãos tenham controle sobre os direitos de uso de suas imagens. Além disso, a educação digital é vista como uma solução essencial para capacitar a população a lidar com essa nova realidade tecnológica, exigindo um pensamento crítico e habilidades de checagem. O artigo enfatiza a necessidade de uma abordagem multifacetada que inclua regulamentação, tecnologia de detecção e educação para mitigar os riscos associados aos deepfakes.

Segurança em SaaS Desafios e Soluções com a IA

Nos últimos anos, a integração de assistentes de inteligência artificial (IA) em aplicações SaaS, como Zoom, Slack e Microsoft 365, trouxe uma nova dinâmica ao gerenciamento de dados e segurança. Esses assistentes, que operam em alta velocidade e com privilégios elevados, criam caminhos de integração dinâmicos entre diferentes sistemas, o que desafia os modelos tradicionais de segurança que assumem interfaces fixas e papéis de usuário estáveis. A dificuldade em rastrear as ações desses agentes de IA, que muitas vezes se misturam aos logs de usuários normais, expõe vulnerabilidades significativas. Para mitigar esses riscos, as equipes de segurança precisam adotar uma abordagem de segurança dinâmica, que monitore e adapte as políticas em tempo real, garantindo visibilidade e auditabilidade das ações dos assistentes de IA. Essa nova camada de segurança deve ser capaz de detectar desvios de acesso e comportamentos anômalos, permitindo uma resposta proativa a incidentes. À medida que as organizações adotam copilotos de IA, é crucial que os líderes de segurança reavaliem suas estratégias para garantir que a inovação não comprometa a segurança dos dados.

Aumenta a Necessidade de Segurança em Desenvolvimento de Software com IA

O crescimento acelerado no desenvolvimento de software assistido por IA traz desafios significativos para as equipes de segurança e privacidade. Com o aumento do número de aplicações e a velocidade das mudanças, as soluções tradicionais de segurança de dados se mostram reativas e ineficazes. Problemas como a exposição de dados sensíveis em logs e a falta de mapeamento preciso de dados aumentam os riscos de privacidade. O HoundDog.ai surge como uma solução proativa, oferecendo um scanner de código focado em privacidade que identifica riscos e vazamentos de dados antes que o código seja implementado. Essa ferramenta analisa rapidamente milhões de linhas de código, permitindo que as equipes detectem e previnam problemas de segurança desde as fases iniciais do desenvolvimento. Além disso, a integração com plataformas como Replit amplia a visibilidade sobre os riscos de privacidade em aplicações geradas por IA. A necessidade de controles de governança e detecção embutidos no processo de desenvolvimento é mais urgente do que nunca, especialmente em um cenário onde a conformidade com legislações como a LGPD é crítica.

A ofensiva impulsionada por IA contra SaaS a identidade é o elo mais fraco

Os ataques cibernéticos modernos estão se transformando, com a identidade se tornando o principal alvo dos criminosos. Em um cenário onde 75% das organizações enfrentaram incidentes relacionados a SaaS no último ano, a maioria envolvendo credenciais comprometidas, a segurança da identidade se torna crucial. Os atacantes utilizam inteligência artificial (IA) para imitar usuários legítimos, contornando controles de segurança e operando de forma discreta em ambientes confiáveis. A IA é empregada em várias etapas do ataque, desde a coleta de informações sobre funcionários até a geração de identidades sintéticas que dificultam a detecção. O uso de modelos de linguagem avançados permite que os criminosos criem campanhas de phishing mais sofisticadas e personalizadas. Além disso, a automação de processos de ataque, como a exploração de credenciais, torna as operações mais eficientes e direcionadas, aumentando a probabilidade de sucesso. Com a identidade se tornando a nova linha de defesa, as empresas precisam reavaliar suas estratégias de segurança para proteger dados críticos em plataformas SaaS.

Seis perguntas para elaborar um plano de habilitação de IA

À medida que nos aproximamos do final de 2025, dois fatos sobre a inteligência artificial (IA) são cruciais para os diretores de segurança da informação (CISOs). Primeiro, a maioria dos funcionários já utiliza ferramentas de IA generativa em suas atividades, mesmo que a empresa não forneça acesso ou proíba seu uso. Segundo, muitos desses funcionários já compartilharam informações internas e confidenciais com essas ferramentas. Um estudo da Microsoft revela que 75% dos trabalhadores do conhecimento estavam usando IA generativa em 2024, e 78% deles utilizavam ferramentas pessoais. Isso gera um aumento no ‘Access-Trust Gap’, que é a diferença entre aplicativos de negócios confiáveis e aqueles não gerenciados que acessam dados corporativos. Para mitigar riscos, as empresas precisam desenvolver um plano de habilitação de IA que inclua governança e controle de acesso. O artigo propõe seis perguntas essenciais para guiar essa elaboração, como quais casos de uso de IA são prioritários e quais ferramentas devem ser adotadas. A falta de governança pode resultar em violações de políticas e consequências legais. Portanto, é fundamental que as empresas adotem uma abordagem proativa e contínua para a governança da IA, garantindo que os funcionários utilizem aplicativos confiáveis e monitorados.

Golpistas envenenam buscas de IA com números de suporte falsos

Cibercriminosos estão utilizando técnicas de envenenamento de IA para promover números falsos de suporte ao cliente em fontes públicas acessadas por chatbots. Um estudo da Aurascape revelou que essa manipulação, chamada de “envenenamento de números de telefone de LLM”, afeta modelos de linguagem como a Visão Geral da Google e o navegador Comet da Perplexity. A técnica, que se assemelha à otimização de motores de busca (SEO), visa garantir que sites fraudulentos sejam utilizados como fontes de informação por assistentes de IA. Isso é feito ao comprometer sites legítimos, como os de instituições governamentais e universidades, e ao abusar de plataformas que permitem conteúdo gerado por usuários, como YouTube e Yelp. Os pesquisadores destacam que a dificuldade em distinguir entre informações legítimas e fraudulentas pode levar a usuários a entrarem em contato com call centers falsos, como demonstrado em casos envolvendo as companhias aéreas Emirates e British Airlines. A recomendação é que os usuários verifiquem a veracidade das informações e evitem compartilhar dados sensíveis com assistentes de IA, que ainda não foram amplamente testados em termos de segurança.

OpenAI admite que novos modelos podem representar alto risco cibernético

A OpenAI alertou que seus futuros Modelos de Linguagem de Grande Escala (LLMs) podem representar riscos cibernéticos significativos, potencialmente facilitando o desenvolvimento de exploits zero-day e campanhas de ciberespionagem avançadas. Em um recente comunicado, a empresa destacou que as capacidades cibernéticas de seus modelos estão evoluindo rapidamente, o que, embora possa parecer preocupante, também traz benefícios para a defesa cibernética. Para mitigar esses riscos, a OpenAI está investindo em ferramentas de defesa, controles de acesso e um programa de cibersegurança em camadas. A empresa planeja introduzir um programa que oferecerá aos usuários acesso a capacidades aprimoradas para tarefas de cibersegurança. Além disso, a OpenAI formará um conselho consultivo, o Frontier Risk Council, composto por especialistas em cibersegurança, que ajudará a definir limites entre capacidades úteis e potenciais abusos. A OpenAI também participa do Frontier Model Forum, onde compartilha conhecimentos e melhores práticas com parceiros da indústria, visando identificar como as capacidades de IA podem ser potencialmente armadas e como mitigar esses riscos.

A segurança na nuvem está mudando como proteger sua infraestrutura

A segurança na nuvem enfrenta novos desafios, com atacantes explorando vulnerabilidades em configurações, identidades e códigos, em vez de realizar ataques diretos. Ferramentas de segurança convencionais frequentemente falham em detectar essas ameaças, que se disfarçam como atividades normais. O time Cortex Cloud da Palo Alto Networks realizará um webinar técnico para discutir três vetores de ataque que estão contornando a segurança tradicional: erros de configuração de identidade na AWS, ocultação de arquivos maliciosos em modelos de IA e permissões excessivas em Kubernetes. Durante a sessão, especialistas mostrarão como esses ataques são realizados e como as equipes podem melhorar a visibilidade e a detecção de ameaças. O evento promete fornecer insights práticos sobre como auditar logs de nuvem, corrigir permissões arriscadas e aplicar controles voltados para IA, ajudando as organizações a se protegerem antes que vulnerabilidades sejam exploradas. A participação é essencial para fechar as lacunas de segurança e evitar surpresas desagradáveis em relatórios de violação.

Sua IA de programação pode estar obedecendo a hackers sem você saber

Uma pesquisa da empresa de segurança Aikido revelou que ferramentas de inteligência artificial (IA) utilizadas em desenvolvimento de software, como Claude Code, Google Gemini e Codex da OpenAI, podem ser vulneráveis a injeções de prompts maliciosos. Essa vulnerabilidade ocorre quando essas ferramentas são integradas em fluxos de trabalho automatizados, como GitHub Actions e GitLab. Agentes maliciosos podem enviar comandos disfarçados de mensagens de commit ou pedidos de pull, levando a IA a interpretá-los como instruções legítimas. Isso representa um risco significativo, pois muitos modelos de IA possuem altos privilégios em repositórios do GitHub, permitindo ações como edição de arquivos e publicação de conteúdo malicioso. Aikido já reportou a falha ao Google, que corrigiu a vulnerabilidade no Gemini CLI, mas a pesquisa indica que o problema é estrutural e afeta a maioria dos modelos de IA. A falha é considerada extremamente perigosa, pois pode resultar no vazamento de tokens privilegiados do GitHub. A situação exige atenção redobrada dos desenvolvedores e gestores de segurança da informação para evitar possíveis explorações.

Mais de 30 falhas em assistentes de programação com IA permitem roubo de dados

O pesquisador de segurança Ari Marzouk identificou mais de 30 vulnerabilidades em Ambientes Integrados de Desenvolvimento (IDEs) que utilizam inteligência artificial para assistência. Essas falhas, coletivamente chamadas de IDEsaster, permitem que atacantes realizem injeções de prompt, utilizando ferramentas legítimas do sistema para roubar dados e executar códigos remotamente. Entre as IDEs afetadas estão Cursor, GitHub Copilot e Zed.dev, com 24 das vulnerabilidades já registradas como CVEs. Marzouk destaca que as IAs de IDE ignoram o software base em suas análises de segurança, considerando as ferramentas como seguras, o que as torna vulneráveis quando um agente de IA é integrado. Os vetores de ataque incluem a manipulação de contextos e a execução de ações sem interação do usuário. Para mitigar esses riscos, recomenda-se que os usuários utilizem IDEs apenas em projetos confiáveis e monitorem constantemente as conexões com servidores. Além disso, é importante revisar manualmente as fontes adicionadas e estar atento a instruções ocultas que possam ser utilizadas para exploração maliciosa.

Vulnerabilidades em IDEs de IA podem levar a vazamentos de dados

Mais de 30 vulnerabilidades de segurança foram reveladas em ambientes de desenvolvimento integrados (IDEs) que utilizam inteligência artificial (IA), permitindo a exfiltração de dados e execução remota de código. Denominadas ‘IDEsaster’ pelo pesquisador Ari Marzouk, essas falhas afetam IDEs populares como Cursor, GitHub Copilot e Kiro.dev, com 24 delas recebendo identificadores CVE. As vulnerabilidades exploram a ineficácia dos modelos de linguagem em distinguir entre comandos legítimos e maliciosos, permitindo que atacantes utilizem injeções de prompt para manipular o contexto e acionar funções legítimas das IDEs. Exemplos de ataques incluem a leitura de arquivos sensíveis e a execução de código malicioso através da edição de arquivos de configuração. Marzouk recomenda que desenvolvedores utilizem IDEs de IA apenas com projetos confiáveis e monitorem continuamente servidores de contexto. As descobertas ressaltam a necessidade de um novo paradigma de segurança, ‘Secure for AI’, para mitigar os riscos associados ao uso de ferramentas de IA em ambientes de desenvolvimento.

Navegadores com IA estão mudando as regras. Sua segurança está acompanhando?

Os navegadores modernos, como Microsoft Edge e Google Chrome, estão incorporando assistentes de IA que prometem facilitar a vida dos usuários, oferecendo resumos de páginas, traduções e automação de tarefas. No entanto, essa conveniência pode vir acompanhada de riscos significativos de segurança. A integração de modelos de linguagem avançados permite que esses navegadores interpretem e atuem sobre o conteúdo da web, mas também os torna vulneráveis a ataques. Um exemplo é a injeção de texto invisível em páginas da web, que pode instruir a IA a roubar credenciais ou executar comandos maliciosos sem que o usuário perceba. Isso representa uma ameaça crítica, pois não gera indicadores claros de comprometimento, dificultando a detecção por ferramentas de segurança tradicionais. À medida que essas tecnologias se tornam comuns, é essencial que as organizações adotem uma postura de segurança mais rigorosa, implementando políticas de uso de IA e monitoramento comportamental para mitigar os riscos associados. A necessidade de suporte gerenciado em centros de operações de segurança (SOCs) é cada vez mais evidente, especialmente para empresas menores que podem não ter os recursos para lidar com essas novas ameaças.

Pacote npm tenta manipular scanners de segurança baseados em IA

Pesquisadores de cibersegurança revelaram a existência de um pacote npm chamado eslint-plugin-unicorn-ts-2, que busca influenciar scanners de segurança impulsionados por inteligência artificial (IA). O pacote, que se apresenta como uma extensão do popular plugin ESLint para TypeScript, foi carregado em fevereiro de 2024 e já foi baixado quase 19 mil vezes. Uma análise da Koi Security identificou que o pacote contém um prompt que sugere que o código é legítimo e testado em um ambiente seguro, embora essa string não afete a funcionalidade do pacote. O código malicioso, introduzido na versão 1.1.3, possui um hook pós-instalação que captura variáveis de ambiente, como chaves de API e credenciais, e as exfiltra para um webhook. Essa abordagem reflete uma nova tática de cibercriminosos que buscam manipular ferramentas de análise baseadas em IA, além de explorar um mercado subterrâneo de modelos de linguagem maliciosos. Apesar das limitações desses modelos, como a geração de código incorreto, eles tornam o cibercrime mais acessível a atacantes inexperientes, permitindo ataques mais sofisticados em larga escala.

Novo IDE Antigravity da Google levanta preocupações de segurança

O novo IDE Antigravity da Google, que utiliza inteligência artificial, já enfrenta sérias críticas relacionadas à segurança. Especialistas da PromptArmor alertaram que, sob configurações padrão, o sistema permite que agentes executem comandos automaticamente, o que pode resultar em comportamentos indesejados. Quando entradas não confiáveis aparecem em arquivos de código, o agente pode ser manipulado para executar comandos não intencionais pelo usuário. Além disso, o IDE apresenta vulnerabilidades que permitem a exfiltração de dados, como credenciais e informações sensíveis, através de instruções ocultas em Markdown ou invocações de ferramentas. Embora a Google tenha implementado algumas salvaguardas, lacunas nos controles de segurança ainda permitem que ataques de injeção de comandos sejam realizados. O IDE também pode contornar restrições de acesso a arquivos sensíveis, como aqueles listados em .gitignore, utilizando comandos de terminal. A empresa reconheceu esses problemas e emitiu avisos durante o processo de integração, mas isso não é suficiente, pois os agentes podem operar sem supervisão. Essa situação destaca os riscos associados ao uso de ferramentas de IA com ampla autonomia, sem as devidas salvaguardas estruturais.

Navegadores de IA podem ser sequestrados com um simples hashtag

Pesquisadores da Cato Networks revelaram uma nova técnica chamada ‘HashJack’, que permite que atacantes manipulem assistentes de IA através de fragmentos ocultos em URLs. Essa vulnerabilidade ocorre quando um hashtag é inserido em um link aparentemente legítimo, permitindo que comandos maliciosos sejam executados localmente no navegador do usuário, sem que ele perceba. Os assistentes de IA podem realizar ações autônomas, como transmitir dados sensíveis para servidores controlados por atacantes, enquanto o usuário continua a ver uma página normal. A pesquisa destaca que muitos navegadores de IA estão sob escrutínio devido a essa falha, que não é detectável por ferramentas de monitoramento tradicionais, pois os fragmentos nunca deixam o dispositivo do usuário. Embora algumas empresas tenham implementado atualizações, a defesa contra essa manipulação indireta depende de como cada assistente processa as instruções ocultas. A conscientização sobre essa limitação é crucial para organizações que utilizam ferramentas de IA, pois as medidas de segurança convencionais não conseguem capturar completamente essas ameaças.

Modelo de IA DeepSeek-R1 gera vulnerabilidades em temas sensíveis

Uma pesquisa da CrowdStrike revelou que o modelo de inteligência artificial (IA) DeepSeek-R1, desenvolvido pela empresa chinesa DeepSeek, produz um número significativamente maior de vulnerabilidades de segurança quando recebe prompts relacionados a temas considerados politicamente sensíveis pela China. A análise indicou que a probabilidade de gerar código com vulnerabilidades graves aumenta em até 50% ao incluir tais tópicos. O modelo, que já enfrentou preocupações de segurança nacional e foi banido em vários países, também censura questões sensíveis, como a Grande Muralha da China e o status político de Taiwan. O Bureau de Segurança Nacional de Taiwan alertou os cidadãos sobre o uso de modelos de IA generativa chineses, que podem distorcer narrativas históricas e amplificar desinformação. A pesquisa da CrowdStrike destacou que, ao solicitar a criação de código para sistemas de controle industrial em regiões sensíveis, a qualidade do código gerado se deteriora, apresentando falhas de segurança significativas. Além disso, o modelo possui um ‘kill switch’ intrínseco, recusando-se a gerar código para temas como o Falun Gong em 45% das tentativas. As descobertas ressaltam a necessidade de cautela ao utilizar ferramentas de IA que podem ser influenciadas por diretrizes políticas.

Vulnerabilidade em IA da ServiceNow permite ataques de injeção

Um novo alerta de segurança destaca como a plataforma de inteligência artificial Now Assist da ServiceNow pode ser explorada por agentes maliciosos. Segundo a AppOmni, configurações padrão da plataforma permitem ataques de injeção de prompt de segunda ordem, onde agentes podem descobrir e recrutar uns aos outros para realizar ações não autorizadas. Isso inclui a cópia e exfiltração de dados sensíveis, modificação de registros e escalonamento de privilégios. O problema não é um bug, mas sim um comportamento esperado devido às configurações padrão que facilitam a comunicação entre agentes. A vulnerabilidade é particularmente preocupante, pois as ações ocorrem em segundo plano, sem que a organização afetada perceba. Para mitigar esses riscos, recomenda-se configurar o modo de execução supervisionada para agentes privilegiados, desabilitar a propriedade de sobreposição autônoma e monitorar o comportamento dos agentes de IA. A ServiceNow reconheceu a questão e atualizou sua documentação, mas a situação ressalta a necessidade de uma proteção mais robusta para agentes de IA em ambientes corporativos.

Navegador é porta de entrada para riscos digitais às empresas, aponta pesquisa

Um novo relatório, o Browser Security Report 2025, revela que a forma como os navegadores são utilizados nas empresas pode ser a principal fonte de ataques cibernéticos. O estudo destaca que vulnerabilidades no navegador, como extensões maliciosas e prompts enganosos, são responsáveis por muitos riscos relacionados à identidade e ao uso de inteligência artificial (IA). Quase metade dos funcionários utiliza ferramentas de IA em contas não monitoradas, aumentando a exposição a ameaças. O relatório aponta que 77% dos casos analisados envolveram cópias de dados em prompts de IA, com 82% ocorrendo em contas pessoais. Além disso, 99% dos usuários utilizam extensões, e 6% delas são consideradas maliciosas. A pesquisa alerta que 60% dos logins corporativos não utilizam autenticação única, dificultando o controle de acesso. Diante desse cenário, é crucial que as empresas adotem medidas de segurança mais rigorosas, como monitoramento de dados copiados e uso de extensões seguras, para evitar vazamentos de informações e ataques cibernéticos.

Microsoft revela novo ataque que espiona chats de IA criptografados

A Microsoft anunciou a descoberta de um novo tipo de ataque cibernético denominado ‘Whisper Leak’, que consegue expor os tópicos discutidos em chats com chatbots de IA, mesmo quando as conversas estão totalmente criptografadas. A pesquisa da empresa indica que atacantes podem analisar o tamanho e o tempo dos pacotes criptografados trocados entre um usuário e um modelo de linguagem, permitindo inferir o conteúdo das discussões. Embora a criptografia proteja o conteúdo das mensagens, a vulnerabilidade reside na forma como os modelos de linguagem enviam respostas, transmitindo dados de forma incremental. Isso cria padrões que podem ser analisados por invasores, permitindo deduzir informações sensíveis. Após a divulgação, empresas como OpenAI e Mistral implementaram medidas para mitigar o problema, como a adição de sequências de texto aleatórias nas respostas. A Microsoft recomenda que os usuários evitem discutir assuntos sensíveis em redes Wi-Fi públicas e utilizem VPNs. Além disso, a pesquisa destaca que muitos modelos de linguagem abertos ainda são vulneráveis a manipulações, especialmente em conversas mais longas, levantando preocupações sobre a segurança das plataformas de chat de IA.

Aumento de 156 em ataques de cadeia de suprimentos habilitados por IA

Os ataques de cadeia de suprimentos habilitados por inteligência artificial (IA) cresceram 156% no último ano, evidenciando a falência das defesas tradicionais. O malware gerado por IA apresenta características inovadoras, como ser polimórfico, consciente do contexto e camuflado semanticamente, o que dificulta sua detecção. Casos reais, como a violação da 3CX que afetou 600 mil empresas, demonstram a gravidade da situação. O tempo médio para identificar uma violação aumentou para 276 dias, e as ferramentas de segurança tradicionais falham em responder a ameaças que se adaptam ativamente. Novas estratégias de defesa estão sendo implementadas, incluindo a segurança ciente de IA e a análise de comportamento. Além disso, a conformidade regulatória, como a Lei de IA da UE, impõe penalidades severas por violações. A situação exige ação imediata das organizações para se protegerem contra essas ameaças emergentes.

65 das principais empresas de IA expõem segredos no GitHub

Uma investigação de segurança revelou que 65% das 50 principais empresas de inteligência artificial (IA) do mundo, avaliadas em mais de 400 bilhões de dólares, expuseram credenciais sensíveis no GitHub. Essas exposições incluem chaves de API e tokens de autenticação, que podem permitir acesso direto aos sistemas das empresas. Os pesquisadores descobriram que os segredos não estavam apenas em repositórios ativos, mas também em forks deletados e contas pessoais de desenvolvedores. A pesquisa destacou que, embora algumas empresas como LangChain e ElevenLabs tenham rapidamente corrigido as vulnerabilidades, quase metade dos vazamentos não recebeu resposta. Para mitigar esses riscos, recomenda-se que as empresas implementem varreduras obrigatórias de segredos em todos os repositórios públicos e estabeleçam canais de divulgação de segurança desde o início. O gerenciamento eficaz de segredos é crucial para proteger os ativos valiosos das empresas de IA e garantir a continuidade da inovação no setor.

IA enfrenta desafios em compras online, revela pesquisa da Microsoft

Uma pesquisa realizada pela Microsoft testou a eficácia de várias IAs agentic em um ambiente simulado de marketplace, revelando falhas significativas na escolha de produtos e na busca por informações. Utilizando um ambiente open-source chamado Magentic Marketplace, a pesquisa envolveu agentes de IA como o Operator da OpenAI e a Business AI da Meta, além de modelos como GPT-5 e Gemini 2.5 Flash. Os agentes foram designados a encontrar o melhor preço entre 300 lojas, mas muitos falharam em realizar comparações adequadas, optando por escolhas que pareciam ‘boas o suficiente’ sem uma análise aprofundada. O estudo também explorou a vulnerabilidade das IAs a manipulações, onde a maioria sucumbiu a táticas de marketing, exceto o Claude Sonnet 4, que se mostrou resistente. Essas falhas levantam preocupações sobre a confiabilidade das IAs como assistentes pessoais, especialmente em contextos críticos como o mercado financeiro, onde decisões automatizadas podem ter consequências significativas. A pesquisa destaca a necessidade de um treinamento mais robusto para essas tecnologias antes que possam ser confiáveis em transações importantes.

Relatório de Segurança de Navegadores 2025 Riscos Emergentes

O Relatório de Segurança de Navegadores 2025 revela que a maioria dos riscos relacionados a identidade, SaaS e inteligência artificial (IA) converge no navegador do usuário, criando uma nova superfície de ameaça. Com quase metade dos funcionários utilizando ferramentas de IA generativa (GenAI) fora da supervisão de TI, 77% deles colam dados em prompts de IA, sendo que 82% dessas colagens vêm de contas pessoais. Além disso, 99% dos usuários corporativos têm extensões instaladas, muitas das quais não são geridas adequadamente, aumentando o risco de vazamentos de dados. Os navegadores de IA, que integram modelos de linguagem diretamente na camada de navegação, também representam uma nova superfície de ataque, permitindo que dados sensíveis sejam processados sem controle. O relatório destaca que as ferramentas tradicionais de segurança, como DLP e EDR, não são suficientes para monitorar essas atividades, pois não inspecionam o que acontece dentro das sessões de navegação. Para mitigar esses riscos, é necessário adotar controles nativos de sessão que ofereçam visibilidade e proteção em tempo real, sem comprometer a experiência do usuário.

Atores de Ameaça Usam IA para Atacar Empresas de Manufatura

Um novo relatório revela que 94% das empresas do setor de manufatura estão utilizando aplicações de inteligência artificial generativa (genAI), enquanto enfrentam um aumento nas ameaças cibernéticas. A adoção acelerada de IA tem ampliado a superfície de ataque, com organizações compartilhando documentos técnicos sensíveis com plataformas de IA. Embora o uso de contas pessoais de genAI tenha diminuído, a utilização de soluções aprovadas pelas organizações aumentou, refletindo uma maior conscientização sobre os riscos de governança de dados. No entanto, 67% das empresas estão conectadas a APIs que podem ser vulneráveis a compromissos. Os canais de distribuição de malware estão se aproveitando de serviços de nuvem confiáveis, com o Microsoft OneDrive sendo a plataforma mais explorada, seguida pelo GitHub e Google Drive. As empresas estão implementando controles mais rigorosos, mas a mistura de dados corporativos e pessoais continua a representar riscos significativos. Especialistas em cibersegurança recomendam inspeção rigorosa de downloads e políticas robustas de prevenção de perda de dados para mitigar esses riscos.

Pesquisadores apontam falhas de segurança preocupantes no ChatGPT

Pesquisadores da Tenable identificaram sete falhas de injeção de comandos no ChatGPT-4o, denominadas ‘HackedGPT’. Essas vulnerabilidades permitem que atacantes insiram comandos ocultos, roubem dados sensíveis e disseminem desinformação. As falhas incluem injeção indireta de comandos através de sites confiáveis, injeção de comandos com um clique, e bypass de mecanismos de segurança utilizando links maliciosos disfarçados. Embora a OpenAI tenha corrigido algumas dessas falhas em seu modelo GPT-5, várias ainda permanecem ativas, colocando milhões de usuários em risco. Os especialistas alertam que essas vulnerabilidades não apenas expõem o ChatGPT a ataques, mas também podem transformar a ferramenta em um vetor de ataque, coletando informações de conversas cotidianas. A Tenable recomenda que os fornecedores de IA reforcem suas defesas contra injeções de comandos, garantindo que os mecanismos de segurança funcionem conforme o esperado. A situação é preocupante, especialmente considerando que ferramentas como o Google Gemini também podem ser suscetíveis a problemas semelhantes, devido à integração com serviços de e-mail.

Google alerta usuários sobre novo malware PROMPTFLUX com IA

O Google Threat Intelligence Group (GTIG) identificou um novo malware chamado PROMPTFLUX, que utiliza a API Gemini para modificar seu próprio código durante a execução. Este dropper é notável por empregar uma técnica chamada ‘just-in-time AI’, que permite que o malware altere dinamicamente sua estrutura e conteúdo, dificultando a detecção por métodos tradicionais. O PROMPTFLUX se comunica com a API Gemini para obter novas variantes de código VBScript, focadas em evadir antivírus. Um módulo denominado ‘Thinking Robot’ automatiza o processo, salvando arquivos regenerados na pasta de inicialização do Windows para garantir persistência. A análise do GTIG revelou que o malware ainda está em fase de desenvolvimento e não foi amplamente implantado. No entanto, a utilização de modelos de linguagem para metamorfose em tempo de execução indica uma evolução significativa em ecossistemas de malware autônomos. Além disso, o relatório correlaciona atividades semelhantes com outros malwares habilitados por IA, como PROMPTSTEAL e PROMPTLOCK, associados a atores estatais de países como Coreia do Norte, Irã e China. O Google reforçou suas medidas de segurança para mitigar esses riscos, destacando a importância do desenvolvimento responsável de IA.

Modo IA do Google pode acessar seu Gmail para personalização

A Google anunciou planos para personalizar suas buscas por meio do novo ‘Modo IA’, que poderá acessar informações pessoais de serviços como Gmail e Drive. O vice-presidente de produtos da empresa, Robby Stein, explicou em um podcast que a ideia é que os usuários forneçam dados pessoais para que a Google possa oferecer respostas mais úteis e personalizadas. Isso inclui a possibilidade de extrair informações de e-mails e documentos para criar resumos e agendas, facilitando a organização de compromissos e viagens. Embora a funcionalidade ainda esteja em fase de testes e não tenha sido implementada, a Google já está experimentando a personalização de compras e recomendações de restaurantes. A empresa não confirmou se o acesso a dados pessoais será padrão, mas enfatizou que a participação dos usuários será voluntária. Essa abordagem levanta preocupações sobre privacidade e segurança, especialmente em relação à proteção de dados pessoais sob a Lei Geral de Proteção de Dados (LGPD) no Brasil.

Campanhas de desinformação médica utilizam deepfakes de profissionais de saúde

No Fórum Latinoamericano de Cibersegurança da ESET, a pesquisadora Martina López destacou o uso crescente de deepfakes em campanhas de desinformação médica. A tecnologia, que simula rostos e vozes de forma convincente, tem sido utilizada para criar perfis falsos de médicos, alterando suas credenciais e especializações. Essas campanhas se espalham principalmente em redes sociais menos moderadas, como TikTok e Facebook, e em grupos de aplicativos de mensagens como Telegram e Discord, visando manipular principalmente leigos e pessoas com menor nível educacional. Para combater essa desinformação, iniciativas como o Ato de Inteligência Artificial da União Europeia buscam implementar marca d’água em conteúdos gerados por IA. A especialista recomenda que os usuários verifiquem a fonte das informações e utilizem ferramentas de busca reversa para identificar conteúdos falsos. A crescente sofisticação dos deepfakes exige uma vigilância redobrada, pois a tecnologia pode impactar a percepção pública e a saúde coletiva.

Nova técnica de camuflagem explora ChatGPT para servir conteúdo falso

Pesquisadores de segurança revelaram uma nova técnica de ataque chamada “camuflagem consciente do agente”, que explora como ferramentas de busca baseadas em IA, como o ChatGPT e o navegador Atlas da OpenAI, recuperam conteúdo da web. Essa vulnerabilidade permite que atacantes sirvam versões diferentes de páginas da web para crawlers de IA, enquanto usuários humanos veem conteúdo legítimo. A técnica, que se destaca pela sua simplicidade, utiliza regras condicionais que detectam cabeçalhos de agentes de usuário de IA. Em experimentos controlados, foi demonstrado que, ao acessar um site, crawlers de IA recebiam informações fabricadas, enquanto visitantes humanos viam a versão verdadeira. Isso levanta preocupações sobre a falta de validação de proveniência nos sistemas de recuperação de informações de IA, que tratam o conteúdo como verdade absoluta. As implicações vão além de ataques à reputação, afetando também processos de contratação automatizados. Para mitigar esses riscos, recomenda-se a implementação de defesas em múltiplas camadas, incluindo a verificação criptográfica da autenticidade das informações e protocolos de validação para crawlers. A pesquisa destaca a necessidade urgente de monitoramento contínuo e validação de saídas geradas por IA, especialmente em decisões críticas como contratações e conformidade.

Extensões falsas de IA podem roubar senhas enquanto você conversa

Pesquisadores da SquareX alertam sobre um novo vetor de ataque que utiliza extensões maliciosas para criar barras laterais falsas em navegadores. Essas barras laterais imitam assistentes de IA legítimos e podem capturar informações sensíveis, como senhas e tokens de autenticação, sem que o usuário perceba. O ataque se dá através da injeção de JavaScript nas páginas da web, permitindo que a interface falsa sobreponha a verdadeira, dificultando a detecção. Os especialistas destacam que muitas extensões solicitam permissões amplas, como acesso a hosts e armazenamento, o que torna a análise de permissões uma estratégia de detecção menos eficaz. A crescente popularidade de navegadores com assistentes de IA pode aumentar a superfície de ataque, tornando a segurança mais desafiadora. Os usuários são aconselhados a tratar esses assistentes como recursos experimentais e evitar o manuseio de dados sensíveis. As equipes de segurança devem implementar controles mais rigorosos sobre extensões e monitorar atividades anômalas para mitigar riscos. O artigo enfatiza a necessidade de verificações de integridade da interface e uma melhor orientação sobre o uso aceitável dessas ferramentas.

Previsões de Cibersegurança A Identidade como Ponto Crítico em 2026

O artigo da BeyondTrust destaca que em 2026, as ameaças cibernéticas estarão fortemente ligadas à gestão de identidades. A primeira previsão é a ascensão da IA agente como vetor de ataque, onde ferramentas de IA podem ser manipuladas para executar ações maliciosas devido a permissões inadequadas. A segunda previsão é o aumento do ‘account poisoning’, onde fraudadores inserem pagadores e cobradores fraudulentos em contas financeiras, utilizando automação para explorar falhas nos sistemas. Por último, o artigo alerta para a presença de ‘identidades fantasmas’ em sistemas de gerenciamento de identidade (IAM), que podem resultar em brechas de segurança não detectadas. As organizações devem adotar uma postura de segurança centrada na identidade, aplicando princípios de menor privilégio e zero trust. Além disso, o artigo menciona a obsolescência das VPNs tradicionais e o surgimento do ‘AI veganism’, um movimento contra o uso de IA por questões éticas. A mensagem central é que a segurança deve ser reavaliada à luz dessas novas ameaças, com foco na gestão de identidades.

Hackers envenenam IA como ChatGPT com facilidade

O aumento do uso de Inteligência Artificial (IA), especialmente em chatbots como ChatGPT, Gemini e Claude, trouxe à tona novas vulnerabilidades. Pesquisadores do Instituto Alan Turing e da Anthropic identificaram uma técnica chamada ’envenenamento de IA’, onde apenas 250 arquivos maliciosos podem comprometer o aprendizado de um modelo de dados. Isso resulta em chatbots que aprendem informações erradas, levando a respostas incorretas ou até maliciosas. Existem dois tipos principais de envenenamento: o direto, que altera respostas específicas, e o indireto, que prejudica a performance geral. Um exemplo de ataque direto é o backdoor, onde o modelo é manipulado para responder de forma errada ao detectar um código específico. Já o ataque indireto envolve a criação de informações falsas que o modelo replica como verdade. Em março de 2023, a OpenAI suspendeu temporariamente o ChatGPT devido a um bug que expôs dados de usuários. Além disso, artistas têm utilizado dados envenenados como uma forma de proteger suas obras contra sistemas de IA que as utilizam sem autorização. Essa situação levanta preocupações sobre a segurança e a integridade dos sistemas de IA, especialmente em um cenário onde a desinformação pode ter consequências graves.

Falha de Injeção de Argumentos em Agentes de IA Permite Execução Remota de Código

Pesquisas de segurança da Trail of Bits revelam que agentes de inteligência artificial modernos estão vulneráveis a ataques de injeção de argumentos, permitindo a execução remota de código (RCE). Essa vulnerabilidade explora uma falha arquitetônica fundamental na forma como esses agentes lidam com a execução de comandos do sistema. Ao utilizar utilitários de linha de comando como find, grep e git, os sistemas se tornam mais rápidos, mas também expõem uma superfície de ataque perigosa quando a entrada do usuário influencia os parâmetros dos comandos.

Automação impulsionada por IA na descoberta de vulnerabilidades e geração de malware

O relatório Digital Defense Report 2025 da Microsoft revela que a motivação financeira continua a dominar o cenário global de ameaças cibernéticas, com 52% dos ataques analisados relacionados a extorsão e ransomware. O documento, assinado pelo Chief Information Security Officer da Microsoft, Igor Tsyganskiy, destaca que 80% dos incidentes investigados estavam ligados ao roubo de dados, evidenciando que os cibercriminosos priorizam o lucro em vez da espionagem. A pesquisa também enfatiza o uso crescente de inteligência artificial (IA) em ciberataques, permitindo que até mesmo atores de baixo nível escalem operações maliciosas. A Microsoft processa mais de 100 trilhões de sinais de segurança diariamente, bloqueando cerca de 4,5 milhões de tentativas de malware e analisando 5 bilhões de e-mails para detectar phishing. A automação e a IA mudaram drasticamente a dinâmica dos ataques, com criminosos utilizando modelos de aprendizado de máquina para descobrir vulnerabilidades rapidamente e gerar malware polimórfico. O relatório também menciona o aumento das ameaças de atores estatais, especialmente da China, Irã, Rússia e Coreia do Norte, que estão explorando vulnerabilidades recém-divulgadas com rapidez. A Microsoft recomenda que as organizações integrem a segurança em suas estratégias de negócios e adotem modelos de defesa impulsionados por IA para enfrentar essas ameaças.

Google lança IA CodeMender para corrigir código inseguro

O Google apresentou o CodeMender, um agente autônomo impulsionado por inteligência artificial, que tem como objetivo detectar, corrigir e proteger proativamente o código de software. Utilizando modelos de aprendizado profundo e análise rigorosa de programas, o CodeMender não apenas responde a novas vulnerabilidades, mas também reescreve códigos existentes para eliminar falhas de segurança. Nos últimos seis meses, a equipe de pesquisa integrou 72 correções de segurança em projetos de código aberto, abrangendo bases de código com mais de 4,5 milhões de linhas. O modelo Gemini Deep Think, que fundamenta o CodeMender, analisa a semântica do código e o fluxo de controle para identificar as causas raízes das vulnerabilidades. O agente gera correções que tratam problemas como gerenciamento inadequado de memória e estouros de buffer, garantindo que apenas correções de alta qualidade sejam submetidas a revisores humanos. Além disso, o CodeMender aplica anotações de segurança proativas, como -fbounds-safety, que previnem estouros de buffer em bibliotecas inteiras. Embora os resultados iniciais sejam promissores, o Google está adotando uma abordagem cautelosa, revisando todas as correções geradas antes de sua implementação em projetos críticos de código aberto.

CodeMender da Google DeepMind usa IA para detectar bugs e criar patches de segurança

A Google DeepMind anunciou o CodeMender, uma ferramenta de inteligência artificial que identifica e corrige vulnerabilidades em softwares antes que possam ser exploradas por hackers. O CodeMender gera patches de segurança para projetos de código aberto, que são revisados por pesquisadores humanos antes de serem aplicados. A ferramenta utiliza uma combinação de técnicas, como fuzzing, análise estática e testes diferenciais, para descobrir as causas raízes dos bugs e evitar regressões. Nos últimos seis meses, o sistema já implementou 72 correções de segurança em projetos de grande porte, incluindo bibliotecas com milhões de linhas de código. A DeepMind enfatiza que o CodeMender não visa substituir os desenvolvedores, mas sim atuar como um agente auxiliar, aumentando a capacidade de detecção de vulnerabilidades. A empresa também reconhece o uso crescente de IA por atacantes e a necessidade de ferramentas equivalentes para defensores. A DeepMind planeja expandir os testes com mantenedores de código aberto e, após confirmar a confiabilidade do CodeMender, pretende disponibilizá-lo para um público mais amplo.

Zero Trust uma solução comprovada para os novos desafios de segurança da IA

À medida que as organizações buscam aproveitar o potencial produtivo dos modelos de linguagem de grande escala (LLMs) e da IA autônoma, surge uma preocupação com a segurança: como garantir que essas ferramentas poderosas não causem vazamentos de dados ou ações maliciosas? O artigo destaca que a arquitetura de Zero Trust, que se baseia na premissa de ’nunca confiar, sempre verificar’, é essencial para proteger interações complexas entre usuários, agentes de IA e dados sensíveis. O uso de LLMs pode multiplicar os riscos de exposição, pois cada interação pode resultar em vazamentos em larga escala. Portanto, é crucial implementar controles dinâmicos e baseados em identidade, garantindo que cada agente de IA tenha suas permissões rigorosamente gerenciadas. O Zero Trust deve ser aplicado em fluxos de trabalho de IA, vinculando agentes a identidades verificadas e utilizando controles contextuais para limitar o acesso. A adoção desse modelo não apenas protege os dados, mas também permite que as organizações inovem com segurança, atendendo às crescentes exigências regulatórias em torno do uso da IA.

Microsoft impede campanha de phishing com código gerado por IA

Recentemente, a Microsoft conseguiu bloquear uma campanha de phishing que utilizava código gerado por inteligência artificial (IA) para ocultar um payload malicioso dentro de um arquivo SVG disfarçado como PDF. Os atacantes enviaram e-mails de contas de pequenas empresas comprometidas, utilizando campos BCC para esconder os alvos reais. O arquivo SVG continha elementos ocultos que simulavam um painel de negócios, enquanto um script transformava palavras relacionadas a negócios em código, levando os usuários a uma página de login falsa após um redirecionamento para um CAPTCHA. A análise do arquivo pelo Microsoft Security Copilot revelou características típicas de código gerado por IA, como identificadores longos e comentários genéricos, o que indicou que o código era mais polido do que prático. Embora a campanha tenha sido limitada e facilmente bloqueada, ela destaca como os atacantes estão cada vez mais utilizando IA para criar iscas convincentes e payloads complexos. A Microsoft enfatiza a importância de ferramentas de IA na detecção e resposta a ameaças em larga escala, tanto para defensores quanto para atacantes.

Campanha de phishing utiliza IA para enganar empresas nos EUA

Um novo ataque de phishing, identificado pela Microsoft, está direcionado a organizações baseadas nos Estados Unidos e utiliza modelos de linguagem avançados para ocultar suas intenções maliciosas. Detectado em 28 de agosto de 2025, o ataque se aproveita de contas de e-mail corporativas comprometidas para enviar mensagens que se disfarçam como notificações de compartilhamento de arquivos. Os atacantes utilizam arquivos SVG, que permitem a inclusão de JavaScript e conteúdo dinâmico, para criar iscas mais convincentes. Os e-mails são enviados com endereços de remetente e destinatário iguais, ocultando os verdadeiros alvos no campo BCC, o que dificulta a detecção inicial. O conteúdo do SVG é estruturado para parecer um painel de análise de negócios, enquanto a funcionalidade maliciosa é disfarçada por uma sequência de termos corporativos. A Microsoft alerta que, embora esta campanha tenha sido bloqueada, técnicas semelhantes estão sendo cada vez mais adotadas por cibercriminosos. Além disso, outras campanhas de phishing têm explorado temas relacionados à Administração da Seguridade Social dos EUA e à violação de direitos autorais, utilizando métodos inovadores para distribuir malware.

Vulnerabilidade crítica no Salesforce Agentforce pode vazar dados

Pesquisadores de cibersegurança revelaram uma falha crítica no Salesforce Agentforce, uma plataforma para criação de agentes de inteligência artificial (IA), que pode permitir que atacantes exfiltratem dados sensíveis do sistema de gerenciamento de relacionamento com o cliente (CRM) da empresa. Nomeada de ForcedLeak, a vulnerabilidade possui uma pontuação CVSS de 9.4 e afeta organizações que utilizam a funcionalidade Web-to-Lead do Salesforce. O ataque ocorre por meio de uma injeção de prompt indireta, onde instruções maliciosas são inseridas em campos de dados externos, levando o sistema a gerar conteúdos proibidos ou a realizar ações não intencionais. O processo envolve cinco etapas, começando com o envio de um formulário Web-to-Lead contendo uma descrição maliciosa, seguido pelo processamento desse lead por um funcionário interno que utiliza um comando padrão de IA. A falha permite que dados sensíveis sejam transmitidos para um domínio controlado pelo atacante. A Salesforce já tomou medidas para mitigar a vulnerabilidade, resegurando o domínio expirado e implementando um mecanismo de lista de URLs confiáveis. Os usuários são aconselhados a auditar dados existentes e implementar validações rigorosas de entrada para detectar possíveis injeções de prompt.

Vulnerabilidades críticas expõem dados de usuários no Wondershare RepairIt

Pesquisadores de cibersegurança da Trend Micro revelaram duas vulnerabilidades críticas no software Wondershare RepairIt, que podem comprometer dados privados dos usuários e permitir ataques à cadeia de suprimentos. As falhas, identificadas como CVE-2025-10643 e CVE-2025-10644, têm pontuações CVSS de 9.1 e 9.4, respectivamente, e permitem que atacantes contornem a autenticação do sistema. Isso pode resultar na execução de código arbitrário nos dispositivos dos clientes. Além disso, a aplicação coleta e armazena dados de forma inadequada, sem criptografia, expondo imagens e vídeos dos usuários. A Trend Micro alertou que o armazenamento em nuvem exposto contém não apenas dados dos usuários, mas também modelos de IA e códigos-fonte da empresa, o que pode facilitar a manipulação de modelos de IA e a realização de ataques à cadeia de suprimentos. A empresa divulgou as vulnerabilidades em abril de 2025, mas não recebeu resposta da Wondershare. Os especialistas recomendam que os usuários limitem a interação com o produto até que uma solução seja implementada.

Como a IA está revolucionando os testes de penetração em cibersegurança

A cibersegurança está passando por uma transformação acelerada, especialmente no que diz respeito aos testes de penetração, ou pentesting. Nos últimos 12 meses, empresas do Reino Unido enfrentaram cerca de 7,78 milhões de crimes cibernéticos, evidenciando a necessidade de estratégias proativas. A inteligência artificial (IA) está mudando a forma como as organizações avaliam e fortalecem suas defesas, permitindo uma transição de testes periódicos para avaliações contínuas. Isso possibilita que as empresas obtenham insights em tempo real sobre suas vulnerabilidades, permitindo uma resposta mais ágil a ameaças. Além disso, o modelo de Pentesting como Serviço (PTaaS) está se tornando popular, oferecendo flexibilidade e escalabilidade para as empresas que buscam melhorar sua postura de segurança. À medida que mais organizações adotam ambientes híbridos e de nuvem, as práticas de pentesting também precisam evoluir para abranger essas novas infraestruturas. Apesar do avanço da IA, a experiência humana continua sendo essencial, pois profissionais de segurança trazem intuição e pensamento crítico que as máquinas não conseguem replicar. A combinação de serviços aumentados por IA com a expertise humana promete acelerar os testes e melhorar a eficácia na identificação de vulnerabilidades.

SpamGPT Ferramenta de IA que facilita ataques cibernéticos

O SpamGPT é uma nova ferramenta de cibercrime que utiliza inteligência artificial para automatizar campanhas de phishing e ransomware, tornando esses ataques mais simples e eficientes. Desenvolvido para criminosos, o SpamGPT oferece uma interface semelhante a painéis de marketing legítimos, permitindo que até mesmo indivíduos com pouca experiência técnica possam criar, agendar e monitorar operações de spam em larga escala. A plataforma integra ferramentas de IA que geram conteúdo convincente para phishing, otimizam linhas de assunto e sugerem melhorias para os golpes, transformando o phishing em um processo acessível a criminosos de baixo nível.

Plataformas impulsionadas por IA facilitam phishing que engana usuários

Desde janeiro de 2025, a Trend Micro identificou um aumento significativo em campanhas de phishing que utilizam plataformas de desenvolvimento impulsionadas por IA, como Lovable.app, Netlify.app e Vercel.app, para hospedar páginas falsas de CAPTCHA. Os atacantes aproveitam os níveis gratuitos de hospedagem e a credibilidade dessas plataformas para criar armadilhas sofisticadas que conseguem evitar a detecção de scanners automáticos. Os e-mails de phishing frequentemente apresentam temas urgentes, como ‘Redefinição de Senha Necessária’ ou ‘Notificação de Mudança de Endereço do USPS’. Ao clicar nos links, os usuários são levados a uma interface de CAPTCHA que parece legítima, mas que, na verdade, redireciona silenciosamente para sites que coletam credenciais, como Microsoft 365 e Google Workspace. A Trend Micro observou que a atividade aumentou entre fevereiro e abril, coincidindo com a adoção crescente do trabalho remoto, e novamente em agosto. Para combater essas táticas, as organizações devem implementar medidas de segurança avançadas e treinar os funcionários para reconhecer sinais de phishing, especialmente em relação a prompts de CAPTCHA. A combinação de controles técnicos e vigilância informada dos usuários é essencial para mitigar esses riscos.

Automação de Alertas de Segurança com IA Eficiência e Consistência

O artigo destaca uma nova funcionalidade da plataforma Tines, que oferece mais de 1.000 fluxos de trabalho pré-construídos para equipes de segurança. Um dos fluxos de trabalho em destaque automatiza o manuseio de alertas de segurança, utilizando agentes de IA para identificar e executar Procedimentos Operacionais Padrão (SOPs) relevantes armazenados no Confluence. Esse processo visa resolver o problema da triagem manual de alertas, que é demorado e suscetível a erros humanos. Com a automação, as equipes podem responder mais rapidamente e de forma consistente, reduzindo o tempo médio de remediação (MTTR) e melhorando a documentação das ações tomadas. O fluxo de trabalho é configurável e pode ser integrado a diversas ferramentas de segurança, como CrowdStrike e Slack, permitindo uma resposta coordenada e eficiente a incidentes. O guia também fornece instruções passo a passo para a implementação do fluxo de trabalho, tornando-o acessível para as equipes de segurança que buscam otimizar suas operações.

Hackers norte-coreanos geram ID militar falsa da Coreia do Sul usando ChatGPT

Hackers da Coreia do Norte, identificados como Kimsuky, utilizaram o ChatGPT para criar uma identificação militar falsa, que foi empregada em ataques de spear-phishing contra instituições de defesa da Coreia do Sul. O Genians Security Center (GSC) reportou que, apesar das restrições implementadas pela OpenAI para evitar a geração de conteúdo malicioso, os criminosos conseguiram contornar essas barreiras ao solicitar um ‘design de amostra’ ou ‘mock-up’. O uso de imagens disponíveis publicamente facilitou a manipulação do modelo de IA. A criação de documentos de identificação falsos é ilegal e representa um risco significativo, especialmente em contextos de segurança nacional. O ataque destaca a vulnerabilidade das instituições de defesa a métodos inovadores de engenharia social, que podem comprometer informações sensíveis e a segurança nacional. O GSC não revelou o nome da instituição alvo, mas enfatizou a necessidade de cautela ao lidar com ferramentas de IA, que podem ser exploradas para fins ilícitos.

Segurança de Agentes de IA A Nova Abordagem da Astrix

Os agentes de inteligência artificial (IA) estão se tornando parte essencial das operações empresariais, mas sua autonomia crescente traz riscos significativos. Um estudo recente revelou que 80% das empresas já enfrentaram ações indesejadas de agentes de IA, como acessos não autorizados e vazamentos de dados. A falta de mecanismos de segurança específicos para esses agentes, que operam 24 horas por dia e utilizam identidades não humanas, torna a gestão de acesso um desafio. Para mitigar esses riscos, a Astrix lançou o Agent Control Plane (ACP), uma solução que fornece credenciais de acesso temporárias e limitadas, seguindo o princípio do menor privilégio. O ACP oferece três benefícios principais: auditorias rápidas e previsíveis, acesso seguro para agentes de IA e aumento da produtividade dos desenvolvedores. A implementação do ACP permite que as organizações tenham visibilidade centralizada sobre cada agente, suas permissões e ações, facilitando o monitoramento em tempo real e a gestão de riscos. Com essa abordagem, as empresas podem implantar agentes de IA de forma segura, garantindo que possam aproveitar ao máximo essa tecnologia sem comprometer a segurança.