Gemini

Vulnerabilidade no Google permite invasão do Gemini por hackers

Uma nova vulnerabilidade nas chaves de API da Google foi descoberta, permitindo que hackers utilizem essas chaves para invadir o assistente de IA Gemini e acessar dados privados. A pesquisa da TruffleSecurity revelou que cerca de 3.000 chaves de API estavam expostas em códigos de diversas organizações na internet. Essas chaves, que antes não eram consideradas sensíveis, passaram a ser um vetor de ataque após a introdução do Gemini, pois agora servem como credenciais de autenticação. A exposição dessas chaves pode resultar em dívidas significativas para os usuários, com potenciais perdas financeiras diárias na ordem de milhares de dólares. O problema foi reportado à Google, que reconheceu a falha como uma “escalada de privilégios de serviço único” e está trabalhando em soluções para mitigar o risco, como a detecção e bloqueio de chaves vazadas. Os desenvolvedores são aconselhados a auditar suas chaves de API e verificar a configuração de segurança de suas aplicações.

Vazamento de chaves de API do Google Cloud expõe dados sensíveis

Uma nova pesquisa da Truffle Security revelou que chaves de API do Google Cloud, geralmente usadas para fins de faturamento, podem ser exploradas para autenticar em endpoints sensíveis do Gemini e acessar dados privados. A investigação identificou quase 3.000 chaves de API do Google (com o prefixo ‘AIza’) embutidas em códigos de cliente, permitindo que atacantes acessem arquivos carregados, dados em cache e gerem cobranças indevidas. O problema surge quando usuários ativam a API do Gemini em um projeto do Google Cloud, o que concede acesso não intencional a essas chaves. Isso permite que qualquer atacante que colete essas chaves em sites as utilize para fins maliciosos, incluindo o roubo de quotas e acesso a arquivos sensíveis. Além disso, a criação de novas chaves de API no Google Cloud é, por padrão, ‘sem restrições’, aumentando o risco. Embora o Google tenha reconhecido o problema e implementado medidas para bloquear chaves vazadas, a situação destaca a necessidade de vigilância contínua e revisão de permissões em APIs. Organizações são aconselhadas a verificar suas chaves de API e rotacioná-las se estiverem acessíveis publicamente.

Chaves de API do Google expostas podem comprometer dados privados

Pesquisadores da TruffleSecurity descobriram que quase 3.000 chaves de API do Google, utilizadas em serviços como o Google Maps, estavam expostas em códigos acessíveis ao público. O problema surgiu após o lançamento do assistente de IA Gemini, que passou a utilizar essas chaves como credenciais de autenticação. Antes, as chaves de API do Google Cloud não eram consideradas dados sensíveis e podiam ser expostas sem riscos significativos. No entanto, com a introdução do Gemini, essas chaves agora permitem acesso a dados privados através da API do assistente. Os pesquisadores alertaram que um atacante poderia copiar uma chave de API do código-fonte de uma página da web e realizar chamadas à API, gerando custos que podem ultrapassar milhares de dólares por dia em contas de vítimas. A TruffleSecurity encontrou mais de 2.800 chaves de API do Google expostas em um conjunto de dados de novembro de 2025 e notificou a empresa, que classificou a falha como uma “elevação de privilégio de serviço único”. O Google afirmou que está implementando medidas proativas para detectar e bloquear chaves de API vazadas e recomendou que os desenvolvedores auditem suas chaves para evitar exposições.

Senhas geradas por ChatGPT e Gemini não são seguras, alertam especialistas

Especialistas da empresa de cibersegurança Irregular emitiram um alerta sobre as vulnerabilidades das senhas geradas por ferramentas de inteligência artificial, como ChatGPT, Gemini e Claude. A análise revelou que, embora essas senhas pareçam complexas e seguras, na realidade, elas podem ser facilmente decifradas por cibercriminosos. Durante os testes, foram solicitadas senhas de 16 caracteres que incluíssem letras maiúsculas, minúsculas, números e caracteres especiais. Apesar de muitos verificadores online indicarem que essas senhas eram robustas, os pesquisadores descobriram que as senhas apresentavam padrões comuns, tornando-as previsíveis. Por exemplo, ao solicitar 50 senhas ao Claude, apenas 30 eram únicas, e muitas começavam e terminavam com os mesmos caracteres. O Gemini 3 Pro se destacou ao gerar senhas menos padronizadas, mas ainda assim alertou que essas senhas não deveriam ser usadas em contas sensíveis. O estudo destaca a necessidade de cautela ao utilizar senhas geradas por IA, especialmente em contas que lidam com informações críticas.

Google revela que hackers usam Gemini em golpes de vagas falsas

O Google identificou que um grupo hacker da Coreia do Norte, denominado UNC2970, está utilizando a ferramenta de inteligência artificial Gemini para realizar ciberataques, especialmente focados em campanhas de phishing relacionadas a ofertas de emprego falsas. A equipe de inteligência de ameaças do Google relatou que os hackers estão empregando a IA para traçar perfis de potenciais vítimas, coletando dados sensíveis através da técnica de OSINT (Open Source Intelligence). O grupo tem como alvo principal empresas de cibersegurança, onde mapeiam funções técnicas e informações salariais para criar campanhas de phishing personalizadas. Embora os detalhes dos ataques não tenham sido amplamente divulgados, a utilização de ferramentas de IA por hackers levanta preocupações sobre a segurança cibernética em escala global. O Google alerta que, embora os usuários das ferramentas de IA não sejam diretamente impactados, a forma como essas tecnologias podem ser exploradas para fins maliciosos é alarmante. O UNC2970 tem se mostrado cada vez mais ativo, enganando sistemas e se passando por recrutadores em busca de profissionais para vagas que não existem.

Hackers utilizam Gemini para criar e monitorar ciberataques

Grupos de cibercriminosos estão explorando ferramentas do Gemini para realizar ciberataques sofisticados, conforme revela uma análise do Google. Os hackers, que operam com apoio de governos como os da China, Irã, Coreia do Norte e Rússia, utilizam o Gemini para criar iscas de phishing, traduzir textos, programar e testar vulnerabilidades. Um caso notável envolveu o sequestro do perfil de um especialista em cibersegurança, que foi usado para automatizar análises de vulnerabilidades e desenvolver estratégias de ataque. Além disso, hackers iranianos têm utilizado o Gemini para criar ferramentas maliciosas personalizadas rapidamente. A automação de ataques e a personalização de malware são preocupações crescentes, pois permitem que os criminosos ampliem o alcance de suas campanhas, como as que induzem vítimas a executar comandos maliciosos através de anúncios. Embora o Gemini em si não represente uma ameaça direta, a utilização de suas ferramentas por hackers evidencia a evolução das táticas de cibercrime e a necessidade de vigilância constante por parte de usuários e empresas.

Google testa Skills para Gemini no Chrome

O Google está testando uma nova funcionalidade chamada ‘Skills’ para o Gemini, sua inteligência artificial integrada ao navegador Chrome. Essa funcionalidade permitirá que o Gemini execute tarefas automaticamente, atuando como um assistente dentro do navegador. Atualmente, o Gemini já está disponível para usuários de desktop nos Estados Unidos, onde pode ajudar a explicar partes confusas de páginas, resumir conteúdos e comparar informações entre várias abas. Por exemplo, ao pesquisar por voos, hotéis e atividades, o usuário pode solicitar que o Gemini compile as informações em um único plano claro.

Google Gemini Deep Research agora acessa dados do Gmail, Chat e Drive

O Google expandiu a funcionalidade Deep Research do modelo de IA Gemini, permitindo que ele acesse dados diretamente das contas de Gmail, Google Drive e Google Chat dos usuários. Essa atualização possibilita a integração de e-mails pessoais, documentos, planilhas, apresentações e conversas em relatórios de pesquisa abrangentes, combinando informações internas com dados da web. Essa nova capacidade visa facilitar a colaboração entre profissionais e equipes, permitindo, por exemplo, que análises de mercado sejam iniciadas com documentos compartilhados do Drive e discussões em chats. No entanto, essa integração levanta preocupações significativas de segurança cibernética, uma vez que usuários podem expor dados confidenciais, como estratégias empresariais e comunicações com clientes, ao ecossistema de processamento do Google. Especialistas em segurança alertam para riscos como ataques de injeção de prompt, onde entradas maliciosas podem manipular a IA para vazar informações privadas. A Google recomenda que os usuários habilitem a autenticação de dois fatores e revisem regularmente os logs de acesso. Antes de utilizar a Deep Research com dados sensíveis, as organizações devem realizar avaliações de segurança rigorosas e estabelecer políticas claras sobre quais fontes de dados podem ser compartilhadas com ferramentas de IA.

Google não corrigirá falha no Gemini que executa código invisível

A Google decidiu não corrigir uma vulnerabilidade de segurança em sua ferramenta de inteligência artificial, Gemini, que permite a execução de códigos maliciosos ocultos em textos invisíveis. Essa técnica, conhecida como ASCII smuggling, utiliza caracteres especiais do Unicode para inserir comandos maliciosos na LLM (Large Language Model) sem que o usuário perceba. Embora a falha não seja nova, os riscos aumentaram com a maior autonomia e acesso a dados sensíveis que assistentes como o Gemini possuem. O pesquisador de segurança Viktor Markopoulos, da FireTail, testou várias ferramentas de IA e encontrou vulnerabilidades semelhantes em algumas delas, mas não em outras como Claude, ChatGPT e Microsoft Copilot, que possuem validação de dados de entrada. A Google, ao ser informada sobre a vulnerabilidade, minimizou o problema, alegando que ele só poderia ser explorado por meio de engenharia social. No entanto, a possibilidade de que convites de calendário e e-mails no Google Workspace possam incluir códigos maliciosos representa um risco significativo, pois esses códigos podem instruir as LLMs a acessar dados sensíveis do dispositivo da vítima e enviá-los aos atacantes.