Modelos De Linguagem

Riscos de Segurança em Modelos de Linguagem A Importância da Gestão de Endpoints

Com o aumento do uso de Modelos de Linguagem de Grande Escala (LLMs) nas organizações, surgem novos riscos de segurança, principalmente relacionados à infraestrutura que suporta esses modelos. Os endpoints, que são interfaces de comunicação com os LLMs, frequentemente acumulam permissões excessivas e credenciais de longa duração, tornando-se alvos atrativos para cibercriminosos. A falta de monitoramento e a confiança implícita em endpoints internos contribuem para a exposição dessas interfaces, que podem ser acessadas sem a devida autenticação ou com tokens fracos. Uma vez comprometidos, esses endpoints podem permitir que atacantes realizem ações prejudiciais, como a exfiltração de dados sensíveis ou a manipulação de ferramentas internas. Para mitigar esses riscos, é crucial que as organizações adotem princípios de segurança de confiança zero, implementando acesso com privilégios mínimos e monitorando continuamente as atividades em endpoints. A gestão adequada de identidades não humanas (NHIs) também é vital, pois credenciais mal geridas podem ampliar a superfície de ataque. Portanto, a segurança em ambientes de LLMs deve ser uma prioridade para evitar consequências graves.

Senhas geradas por IA podem ser quebradas em horas, alertam pesquisadores

Pesquisadores alertam que senhas geradas por modelos de linguagem artificial (LLMs), como ChatGPT e Claude, podem parecer seguras, mas possuem padrões previsíveis que as tornam vulneráveis a ataques. Um estudo da Irregular analisou 50 senhas de 16 caracteres geradas por esses sistemas e descobriu que muitas eram duplicadas e seguiam estruturas semelhantes. Embora essas senhas tenham passado em testes de força comuns, a análise revelou que sua entropia variava entre 20 e 27 bits, enquanto uma senha verdadeiramente aleatória teria entre 98 e 120 bits. Essa diferença significa que senhas geradas por IA podem ser quebradas em questão de horas, mesmo em computadores antigos. Os pesquisadores alertam que ferramentas de avaliação de senhas não consideram padrões estatísticos ocultos, o que pode levar à falsa sensação de segurança. Além disso, a recomendação é que os usuários utilizem geradores de senhas baseados em aleatoriedade criptográfica e gerenciadores de senhas, em vez de confiar nas sugestões de LLMs, que não são adequadas para autenticação segura.

Microsoft desenvolve scanner para detectar backdoors em LLMs

A Microsoft anunciou o desenvolvimento de um scanner leve capaz de detectar backdoors em modelos de linguagem de grande escala (LLMs), visando aumentar a confiança em sistemas de inteligência artificial (IA). A equipe de segurança da IA da empresa identificou três sinais observáveis que podem indicar a presença de backdoors, mantendo uma baixa taxa de falsos positivos. Esses sinais incluem padrões de atenção distintos em respostas a frases de gatilho, a memorização de dados de envenenamento e a ativação de backdoors por gatilhos ‘fuzzy’. O scanner não requer treinamento adicional e pode ser aplicado em modelos comuns, mas tem limitações, como a incapacidade de funcionar em modelos proprietários. A Microsoft também está expandindo seu Ciclo de Vida de Desenvolvimento Seguro (SDL) para abordar preocupações de segurança específicas da IA, reconhecendo que sistemas de IA criam múltiplos pontos de entrada para inputs inseguros. Essa inovação é um passo significativo para a detecção prática de backdoors, mas a colaboração na comunidade de segurança da IA é essencial para o progresso contínuo.

Campanhas de ciberataques visam modelos de linguagem de IA

Com a crescente popularidade das ferramentas de inteligência artificial (IA), cibercriminosos estão direcionando suas atenções para a exploração de vulnerabilidades em modelos de linguagem de grande escala (LLMs). Pesquisadores da GreyNoise identificaram duas campanhas de ataque que, juntas, contabilizam quase 100 mil tentativas de exploração. Os ataques, que ocorreram entre outubro de 2025 e janeiro de 2026, visaram principalmente empresas que utilizam esses modelos em suas operações diárias. A primeira campanha consistiu na injeção de domínios maliciosos, enquanto a segunda, considerada mais perigosa, focou em testar APIs de serviços de IA de grandes empresas como OpenAI e Google, buscando identificar quais modelos poderiam ser manipulados sem acionar alertas de segurança. Os especialistas alertam que esses ataques representam riscos significativos para a segurança corporativa, especialmente com a adoção crescente de IAs. Recomenda-se que as empresas implementem medidas de segurança mais robustas, como o bloqueio de endereços suspeitos e a configuração de alertas para respostas rápidas a possíveis ameaças.

Microsoft revela ataque de canal lateral que compromete LLMs

A Microsoft divulgou detalhes sobre um novo ataque de canal lateral, denominado Whisper Leak, que pode permitir que adversários passem a observar o tráfego de rede para inferir tópicos de conversação em modelos de linguagem remotos, mesmo com a proteção de criptografia. Este ataque é particularmente preocupante, pois pode expor dados trocados entre usuários e modelos de linguagem em modo de streaming, colocando em risco a privacidade das comunicações de usuários e empresas. Pesquisadores da Microsoft explicaram que atacantes em posição de monitorar o tráfego criptografado, como agências governamentais ou provedores de internet, podem identificar se um usuário está discutindo tópicos sensíveis, como lavagem de dinheiro ou dissidência política, apenas analisando o tamanho dos pacotes e os tempos de chegada. A técnica foi testada com modelos de aprendizado de máquina, alcançando taxas de precisão superiores a 98% em identificar tópicos específicos. Embora a Microsoft e outras empresas tenham implementado medidas de mitigação, a eficácia do ataque pode aumentar com a coleta de mais amostras ao longo do tempo. A empresa recomenda que os usuários evitem discutir assuntos sensíveis em redes não confiáveis e considerem o uso de VPNs para proteção adicional.

Zero Trust uma solução comprovada para os novos desafios de segurança da IA

À medida que as organizações buscam aproveitar o potencial produtivo dos modelos de linguagem de grande escala (LLMs) e da IA autônoma, surge uma preocupação com a segurança: como garantir que essas ferramentas poderosas não causem vazamentos de dados ou ações maliciosas? O artigo destaca que a arquitetura de Zero Trust, que se baseia na premissa de ’nunca confiar, sempre verificar’, é essencial para proteger interações complexas entre usuários, agentes de IA e dados sensíveis. O uso de LLMs pode multiplicar os riscos de exposição, pois cada interação pode resultar em vazamentos em larga escala. Portanto, é crucial implementar controles dinâmicos e baseados em identidade, garantindo que cada agente de IA tenha suas permissões rigorosamente gerenciadas. O Zero Trust deve ser aplicado em fluxos de trabalho de IA, vinculando agentes a identidades verificadas e utilizando controles contextuais para limitar o acesso. A adoção desse modelo não apenas protege os dados, mas também permite que as organizações inovem com segurança, atendendo às crescentes exigências regulatórias em torno do uso da IA.

Mais de 1.100 servidores de IA da Ollama expostos online, 20 vulneráveis

Pesquisadores da Cisco Talos identificaram mais de 1.100 instâncias do framework Ollama, utilizado para hospedar modelos de linguagem, acessíveis publicamente na internet. Aproximadamente 20% desses servidores estavam operando sem qualquer forma de autenticação, tornando-os vulneráveis a ataques severos. Em uma varredura rápida usando o Shodan, foram encontrados 1.139 endpoints expostos, dos quais 214 permitiam consultas de modelos sem credenciais. Essa falta de controle de acesso possibilita ataques de extração de modelo e a injeção de conteúdo malicioso. Mesmo os 80% restantes, que estavam inativos no momento da descoberta, apresentam riscos significativos, como uploads não autorizados de modelos e ataques de exaustão de recursos. A análise geoespacial revelou que a maioria dos servidores expostos está localizada nos Estados Unidos, China e Alemanha, evidenciando falhas na segurança da infraestrutura de IA. Para mitigar essas vulnerabilidades, recomenda-se a implementação de mecanismos de autenticação robustos, isolamento de rede e auditorias regulares de exposição. Essas medidas são essenciais para proteger a integridade dos modelos de IA e evitar abusos.

Nova ferramenta BruteForceAI ataca páginas de login com inteligência

O BruteForceAI é uma nova ferramenta de teste de penetração que utiliza Modelos de Linguagem de Grande Escala (LLMs) para automatizar e otimizar ataques de força bruta em páginas de login. Desenvolvido pelo pesquisador de cibersegurança Mor David, o BruteForceAI apresenta um fluxo de trabalho de ataque em duas etapas: a primeira envolve uma análise inteligente do formulário de login, onde um LLM identifica elementos como nome de usuário e senha, reduzindo a necessidade de configuração manual. A segunda etapa executa ataques de alta velocidade, utilizando modos como força bruta clássica e Password Spray, que aplica uma única senha a múltiplos usuários.