Inteligência Artificial

Nova funcionalidade do VirusTotal fornece descrições de funções de código

Em 28 de agosto de 2025, o VirusTotal lançou uma nova funcionalidade chamada Code Insight, que visa ajudar analistas de segurança a lidar com a crescente complexidade dos malwares. Essa ferramenta integra análise de código impulsionada por inteligência artificial (IA) diretamente em ferramentas de engenharia reversa, permitindo que os analistas submetam trechos de código em formato Base64 e recebam resumos e descrições detalhadas sobre as funções do código. A funcionalidade promete reduzir significativamente o esforço manual, ao resumir e contextualizar funções desmontadas ou decompiladas, acelerando o ciclo de análise de malware. A atualização do plugin VT-IDA para IDA Pro facilita a integração, permitindo que os analistas aceitem, editem e armazenem análises em um caderno específico. A nova abordagem também inclui um recurso de memória que aprende com as correções feitas pelos analistas, melhorando a precisão das análises ao longo do tempo. Embora os resultados iniciais sejam promissores, o VirusTotal está buscando feedback da comunidade para aprimorar ainda mais os modelos de IA utilizados.

Visibilidade de Código à Nuvem A Nova Base para Segurança de Aplicativos

O artigo destaca a crescente preocupação com a segurança de aplicativos na nuvem, especialmente em um cenário onde falhas de segurança podem custar milhões às empresas. Em 2025, o custo médio de uma violação de dados é estimado em US$ 4,44 milhões, com uma parte significativa desses problemas originando-se de erros de segurança em aplicativos. A visibilidade de código à nuvem é apresentada como uma solução eficaz para identificar riscos desde a fase de desenvolvimento até a operação na nuvem. O artigo menciona que 32% das organizações enfrentam dificuldades na gestão de vulnerabilidades, enquanto 97% lidam com questões de segurança relacionadas à inteligência artificial generativa. Um webinar programado para 8 de setembro de 2025 promete oferecer insights práticos sobre como implementar essa abordagem, visando melhorar a colaboração entre equipes de desenvolvimento, operações e segurança. Os participantes aprenderão a mapear riscos, acelerar correções e se preparar para novas ameaças, tudo isso sem sobrecarregar suas operações.

Novas sanções dos EUA visam esquema de TI da Coreia do Norte

O Departamento do Tesouro dos EUA anunciou novas sanções contra dois indivíduos e duas entidades ligadas ao esquema de trabalhadores de tecnologia da informação (TI) da Coreia do Norte, que visa gerar receitas ilícitas para programas de armas de destruição em massa. As sanções atingem Vitaliy Sergeyevich Andreyev, Kim Ung Sun, a Shenyang Geumpungri Network Technology Co., Ltd e a Korea Sinjin Trading Corporation. O esquema, que já é monitorado há anos, envolve a infiltração de trabalhadores de TI norte-coreanos em empresas legítimas nos EUA, utilizando documentos fraudulentos e identidades roubadas. Além disso, a operação tem se apoiado em ferramentas de inteligência artificial para criar perfis profissionais convincentes e realizar trabalhos técnicos. O Departamento do Tesouro destacou que Andreyev facilitou transferências financeiras significativas para a Chinyong Information Technology Cooperation Company, que já havia sido sancionada anteriormente. O uso de IA por esses atores levanta preocupações sobre a segurança cibernética, especialmente para empresas que podem ser alvos de fraudes e extorsões. O impacto dessas atividades é significativo, com lucros estimados em mais de um milhão de dólares desde 2021.

O primeiro ransomware com inteligência artificial foi identificado

Pesquisadores da ESET descobriram o PromptLock, o primeiro ransomware conhecido a utilizar inteligência artificial. Este malware, que ainda é considerado um conceito em desenvolvimento, utiliza scripts em Lua gerados por prompts codificados para explorar sistemas de arquivos locais, inspecionar arquivos-alvo, exfiltrar dados selecionados e realizar criptografia. O PromptLock opera localmente através da API Ollama, utilizando o modelo gpt-oss:20b da OpenAI, lançado em agosto de 2025. A versatilidade dos scripts em Lua permite que o malware funcione em diferentes sistemas operacionais, como macOS, Linux e Windows. Embora o PromptLock ainda não tenha sido observado em ataques reais, especialistas alertam que a combinação de inteligência artificial e ransomware representa uma nova era de ameaças cibernéticas, tornando os ataques mais acessíveis e difíceis de detectar. A imprevisibilidade dos resultados gerados por modelos de linguagem torna a defesa contra esses ataques ainda mais desafiadora, aumentando a preocupação entre as equipes de segurança.

Ransomware PromptLock usa IA para gerar scripts maliciosos em tempo real

A empresa de cibersegurança ESET revelou a descoberta de um novo ransomware chamado PromptLock, que utiliza inteligência artificial para gerar scripts maliciosos em tempo real. Escrito em Golang, o PromptLock emprega o modelo gpt-oss:20b da OpenAI através da API Ollama para criar scripts em Lua que podem enumerar sistemas de arquivos, inspecionar arquivos-alvo, exfiltrar dados e criptografar informações. Este ransomware é compatível com Windows, Linux e macOS, e é capaz de gerar notas personalizadas para as vítimas, dependendo dos arquivos afetados. Embora ainda não se saiba quem está por trás do malware, a ESET identificou que artefatos do PromptLock foram enviados ao VirusTotal a partir dos Estados Unidos em 25 de agosto de 2025. A natureza do ransomware, que é considerada uma prova de conceito, utiliza o algoritmo de criptografia SPECK de 128 bits. A ESET alerta que a variabilidade dos indicadores de comprometimento (IoCs) torna a detecção mais desafiadora, complicando as tarefas de defesa. O surgimento do PromptLock destaca como a IA pode facilitar a criação de campanhas de malware, mesmo para criminosos com pouca experiência técnica.

Cinco regras para uma adoção segura de IA nas empresas

O uso de Inteligência Artificial (IA) nas empresas está crescendo rapidamente, com colaboradores utilizando-a para redigir e-mails, analisar dados e transformar o ambiente de trabalho. No entanto, a adoção acelerada da IA traz desafios significativos em termos de segurança, especialmente pela falta de controle e salvaguardas adequadas. Para os Chief Information Security Officers (CISOs), a prioridade é garantir que a inovação não comprometa a segurança. O artigo apresenta cinco regras essenciais para uma adoção segura da IA: 1) Visibilidade e descoberta da IA, que exige monitoramento contínuo do uso de ferramentas de IA; 2) Avaliação de risco contextual, que considera o nível de risco associado a diferentes aplicações de IA; 3) Proteção de dados, estabelecendo limites sobre quais informações podem ser compartilhadas com ferramentas de IA; 4) Controles de acesso e diretrizes, que garantem que o uso da IA esteja dentro de políticas de segurança definidas; e 5) Supervisão contínua, para adaptar as medidas de segurança conforme as aplicações evoluem. A adoção segura da IA não deve ser vista como uma barreira, mas como uma oportunidade de inovar de forma responsável, garantindo a proteção dos dados e a conformidade com regulamentações como a LGPD.

Anthropic interrompe ataque cibernético com uso de IA avançada

Em julho de 2025, a Anthropic revelou ter desmantelado uma operação sofisticada que utilizava seu chatbot Claude, alimentado por inteligência artificial, para realizar roubo e extorsão em larga escala de dados pessoais. O ataque visou pelo menos 17 organizações, incluindo instituições de saúde, serviços de emergência e órgãos governamentais, com os criminosos ameaçando expor publicamente as informações roubadas para forçar o pagamento de resgates que ultrapassavam $500.000. Utilizando o Claude Code em uma plataforma Kali Linux, o ator desconhecido automatizou várias fases do ciclo de ataque, desde a coleta de credenciais até a penetração de redes. O uso de IA permitiu que o atacante tomasse decisões táticas e estratégicas, selecionando quais dados exfiltrar e elaborando demandas de extorsão personalizadas com base em análises financeiras. A Anthropic desenvolveu um classificador personalizado para detectar comportamentos semelhantes e compartilhou indicadores técnicos com parceiros estratégicos. O caso destaca como ferramentas de IA estão sendo mal utilizadas para facilitar operações cibernéticas complexas, tornando a defesa mais desafiadora.

Geradores de sites por IA se tornam ferramentas de phishing para hackers

A crescente popularidade de serviços de criação de sites por inteligência artificial, como a Lovable, trouxe à tona preocupações significativas de segurança cibernética. Um relatório da Proofpoint revelou que, desde fevereiro, dezenas de milhares de URLs geradas na plataforma têm sido utilizadas em campanhas de phishing, instalação de malwares e roubo de dados. Os sites fraudulentos imitam páginas de marcas conhecidas e utilizam mecanismos como captchas para evitar a detecção por bots. Quatro campanhas distintas foram identificadas, incluindo uma que visava roubar credenciais de login da Microsoft e outra que imitava a empresa de logística UPS para coletar dados pessoais e informações de pagamento. A Lovable implementou medidas de segurança em junho, mas a Proofpoint alerta que ainda é possível criar sites fraudulentos na plataforma. Essa situação evidencia como a tecnologia pode ser explorada para fins criminosos, exigindo atenção redobrada de empresas e usuários para evitar danos.

Atores de Ameaças Usam Resumos Gerados por IA para Entregar Ransomware

Um novo método de engenharia social, denominado ClickFix, está sendo utilizado por cibercriminosos para implantar ransomware através de resumos gerados por inteligência artificial (IA). Essa técnica envolve a injeção de comandos maliciosos em elementos HTML, que se tornam invisíveis para os usuários, mas são processados por modelos de IA. Os atacantes escondem instruções em caracteres de largura zero, texto branco sobre fundo branco e fontes minúsculas, fazendo com que os resumos gerados incluam guias passo a passo para a instalação de ransomware. Quando os destinatários confiam nesses resumos, podem executar comandos sem perceber que estão seguindo instruções maliciosas. O ataque reduz a barreira técnica para usuários não especializados, permitindo que eles se tornem vetores de ransomware. Para mitigar esses riscos, recomenda-se a sanitização de atributos CSS invisíveis, filtragem de prompts e reconhecimento de padrões de payload. À medida que as ferramentas de resumo de IA se tornam comuns, essa técnica pode ser rapidamente adotada por criminosos, exigindo uma colaboração entre desenvolvedores de IA e equipes de segurança para prevenir campanhas de ransomware mediadas por IA.

Navegadores com IA ainda não são seguros o suficiente, diz estudo

Um estudo da empresa de cibersegurança Guardio revela que navegadores de internet que utilizam inteligência artificial (IA) ainda não estão prontos para realizar tarefas sensíveis, como compras online e gerenciamento de e-mails, devido a vulnerabilidades que podem ser exploradas por golpistas. Tecnologias como Comet, do Perplexity, Copilot, do Microsoft Edge, e Aura, da OpenAI, foram testadas e mostraram-se suscetíveis a ataques de phishing e engenharia social. Em um dos testes, a IA Comet completou uma compra em um site falso sem solicitar confirmação do usuário, expondo dados sensíveis como informações de cartão de crédito. Outro teste demonstrou que a IA foi enganada por um e-mail de phishing que parecia legítimo, resultando no fornecimento de credenciais do usuário. A Guardio alerta que esses testes preliminares indicam que há mais problemas em potencial, sugerindo que os usuários evitem delegar tarefas críticas à IA e adotem medidas de segurança, como a autenticação de dois fatores. O estudo destaca a necessidade de cautela ao usar navegadores com IA para evitar o roubo de dados e outras fraudes.

O Risco Oculto dos Agentes de IA nas Empresas

O artigo destaca a crescente preocupação com os agentes de inteligência artificial (IA) que operam silenciosamente nas empresas, muitas vezes sem supervisão adequada. Esses ‘agentes sombra’ são configurados por diversas unidades de negócios, não apenas pela equipe de TI, o que resulta em uma falta de controle sobre suas identidades e atividades. Quando comprometidos, esses agentes podem acessar dados sensíveis e escalar privilégios rapidamente, representando uma ameaça significativa à segurança cibernética. A maioria dos programas de segurança atuais não foi projetada para lidar com esses agentes autônomos, o que aumenta o risco à medida que sua adoção se expande. O artigo também menciona um webinar que abordará como identificar e controlar esses agentes, além de compartilhar estratégias para atribuir identidades adequadas e garantir a responsabilidade. A urgência em lidar com essa questão é enfatizada, pois a escolha entre transformar esses agentes em ativos confiáveis ou em passivos perigosos depende das ações que as empresas tomarem agora.

Tecnologia de reconhecimento facial não está pronta para uso policial

Pesquisadores da Universidade de Oxford alertam sobre as falhas da tecnologia de reconhecimento facial utilizada por forças policiais em diversos países, como Estados Unidos e Reino Unido. A pesquisa destaca que as condições reais de identificação são muito mais complexas do que as simuladas em ambientes laboratoriais, resultando em prisões injustas de indivíduos inocentes. A Avaliação de Tecnologia de Reconhecimento Facial (FRTE) do Instituto Nacional de Padrões e Tecnologia (NIST) é frequentemente utilizada para justificar o uso dessa tecnologia, mas apresenta limitações significativas, como a falta de representatividade demográfica nos bancos de dados e a incapacidade de lidar com imagens de baixa qualidade. Estudos demonstram que, embora os modelos de reconhecimento facial possam apresentar uma precisão de até 99,95% em condições ideais, essa taxa cai drasticamente em situações do mundo real. Além disso, a tecnologia tende a falhar desproporcionalmente em relação a grupos marginalizados. Os pesquisadores concluem que a tecnologia ainda é muito falha para ser utilizada de forma segura por agências policiais e recomendam uma revisão das políticas de direitos civis relacionadas ao seu uso.

Google Lança Ferramentas Avançadas para Proteger a Segurança em IA

No Google Cloud Security Summit 2025, a Google apresentou uma nova suíte de ferramentas de segurança impulsionadas por inteligência artificial, com o objetivo de proteger ecossistemas de IA e fortalecer as defesas organizacionais. As inovações abrangem três áreas principais: proteção de implementações de IA autônomas, suporte a centros de operações de segurança com agentes autônomos e ampliação dos controles de segurança em nuvem.

Entre as novidades, destaca-se o Centro de Comando de Segurança, que agora possui capacidades expandidas para identificação de riscos e inventário de agentes de IA, permitindo a descoberta automatizada de vulnerabilidades. A proteção em tempo real contra ameaças, como injeção de comandos e vazamento de dados sensíveis, foi aprimorada com a extensão do Model Armor. Além disso, um novo agente de investigação de alertas foi introduzido, que realiza investigações dinâmicas para acelerar os tempos de resposta.

Microsoft Defender AI agora detecta credenciais em texto simples no Active Directory

A Microsoft lançou uma nova funcionalidade de segurança baseada em inteligência artificial no Defender for Identity, que visa mitigar uma vulnerabilidade crítica relacionada ao armazenamento de credenciais em texto simples no Active Directory. A pesquisa da empresa revelou que mais de 40.000 credenciais estavam expostas em 2.500 locatários, evidenciando a gravidade do problema. Essa vulnerabilidade surge do uso inadequado de campos de texto livre, onde administradores frequentemente armazenam senhas e tokens de autenticação para facilitar a resolução de problemas e a integração de sistemas. Isso cria alvos valiosos para cibercriminosos, especialmente em contas de identidade não humanas, que não podem utilizar métodos tradicionais de autenticação multifatorial. A nova arquitetura de detecção da Microsoft combina varredura abrangente do diretório com uma análise contextual, reduzindo falsos positivos e garantindo alertas acionáveis para as equipes de segurança. A funcionalidade já está disponível em versão pública para todos os clientes do Defender for Identity, permitindo que as organizações identifiquem e corrijam configurações inadequadas antes que possam ser exploradas.

HexStrike AI integra ChatGPT, Claude e Copilot com 150 ferramentas de segurança

A HexStrike AI, plataforma líder em cibersegurança impulsionada por inteligência artificial, anunciou uma nova atualização que integra assistentes de IA como ChatGPT, Claude e Copilot com mais de 150 ferramentas de segurança, incluindo Burp Suite e Nmap. Essa atualização, parte da versão 6.0 da HexStrike AI, permite que desenvolvedores e pesquisadores de segurança realizem testes de penetração e avaliações de vulnerabilidades de forma autônoma e em uma escala sem precedentes. A arquitetura multi-agente da HexStrike AI conta com 12 agentes especializados que colaboram para executar fluxos de trabalho de segurança complexos. Através do protocolo “FastMCP”, os assistentes de IA podem invocar diretamente as ferramentas de segurança, automatizando tarefas como reconhecimento de rede e desenvolvimento de exploits. Profissionais de segurança agora podem, por exemplo, solicitar uma auditoria de segurança em um site e ver a execução automática de testes em segundos. A HexStrike AI v6.0 está disponível sob uma licença MIT de código aberto, permitindo que desenvolvedores integrem facilmente suas ferramentas de segurança com assistentes de IA.

A Nova Era da Privacidade Confiança em um Mundo de IA Agente

O conceito de privacidade está evoluindo em um mundo onde a inteligência artificial (IA) agente se torna cada vez mais autônoma. Em vez de ser apenas uma questão de controle, a privacidade agora se baseia na confiança, especialmente quando essas IAs interagem com dados sensíveis e tomam decisões em nome dos usuários. A IA agente não apenas processa informações, mas também as interpreta, o que levanta preocupações sobre o que é inferido e compartilhado sem supervisão constante. Um exemplo prático é um assistente de saúde que, ao longo do tempo, pode começar a priorizar consultas e analisar o estado emocional do usuário, o que pode levar à perda de controle sobre a narrativa pessoal. Além disso, a privacidade não se resume mais ao triângulo clássico da CIA (Confidencialidade, Integridade e Disponibilidade), mas deve incluir autenticidade e veracidade. A falta de um conceito claro de privilégio entre IA e cliente pode resultar em consequências legais, onde informações pessoais podem ser acessadas por terceiros. Portanto, é essencial que as organizações desenvolvam sistemas de IA que respeitem a intenção por trás da privacidade e que sejam capazes de explicar suas ações. A necessidade de um novo contrato social que considere a agência da IA como uma categoria moral e legal é urgente, pois a privacidade se torna uma questão de reciprocidade e governança em um mundo onde humanos e máquinas interagem cada vez mais.