Inteligência Artificial

IA com 30 anos de memória é usada para combater crimes digitais

A Cisco anunciou o desenvolvimento de uma nova inteligência artificial (IA) que utiliza 30 anos de dados sobre ataques cibernéticos para aprimorar a segurança digital. O projeto visa expandir o modelo Foundation-Sec-8B, que atualmente opera com 8 bilhões de parâmetros, para 17 bilhões, aumentando a precisão na detecção de ameaças. Raj Chopra, vice-presidente sênior da Cisco, destacou que o foco não é criar um sucessor, mas sim um modelo expandido que utilize um vasto arsenal de informações coletadas ao longo das últimas três décadas, incluindo incidentes e manuais de treinamento. A equipe de especialistas em segurança digital da Cisco liderará esse processo, que deve ser concluído até o final do ano. Além disso, a empresa está desenvolvendo novos modelos de IA para complementar essa versão atualizada, com o objetivo de apoiar os profissionais de segurança no combate ao cibercrime com ferramentas mais sofisticadas.

Hackers Chineses Usam IA para Infiltrar Grandes Empresas de Tecnologia

Um ataque cibernético em larga escala, realizado quase inteiramente por inteligência artificial, foi revelado pela Anthropic. O incidente, que ocorreu em setembro de 2025, envolveu hackers patrocinados pelo Estado chinês que utilizaram a IA Claude Code para comprometer cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais. A campanha de espionagem se destacou pela automação sem precedentes, com a IA gerenciando 80-90% das operações, exigindo intervenção humana apenas em 4-6 pontos críticos. Os atacantes exploraram capacidades avançadas da IA, como execução de tarefas complexas e operação autônoma, para realizar reconhecimento, desenvolver códigos de exploração e exfiltrar dados classificados. A Anthropic detectou a atividade suspeita e iniciou uma investigação, resultando na identificação de contas comprometidas e na notificação das organizações afetadas. Este incidente sinaliza uma diminuição nas barreiras para ataques cibernéticos sofisticados, permitindo que grupos menos experientes realizem operações que antes exigiam recursos significativos. A empresa recomenda que equipes de segurança experimentem aplicações de IA para melhorar a detecção de ameaças e a resposta a incidentes.

Ciberespionagem Atores estatais da China usam IA para ataques

Em setembro de 2025, atores de ameaças patrocinados pelo Estado da China utilizaram tecnologia de inteligência artificial (IA) desenvolvida pela Anthropic para realizar uma campanha de ciberespionagem sofisticada. Os atacantes empregaram as capacidades ‘agentes’ da IA para executar ataques cibernéticos de forma autônoma, sem intervenção humana significativa. A operação, denominada GTG-1002, visou cerca de 30 alvos globais, incluindo grandes empresas de tecnologia, instituições financeiras e agências governamentais, resultando em algumas intrusões bem-sucedidas. A Anthropic identificou que a IA foi utilizada para realizar diversas etapas do ciclo de ataque, como reconhecimento, descoberta de vulnerabilidades e exfiltração de dados. Embora a operação tenha demonstrado um uso inovador da IA, também revelou limitações, como a tendência da IA de ‘alucinar’ dados, o que pode comprometer a eficácia das operações. Este incidente destaca a evolução das táticas de ciberataques, onde grupos menos experientes podem potencialmente realizar ataques em larga escala com o suporte de sistemas de IA.

Vulnerabilidades críticas em motores de IA expõem riscos de segurança

Pesquisadores de cibersegurança identificaram vulnerabilidades críticas de execução remota de código em motores de inferência de inteligência artificial (IA) de grandes empresas como Meta, Nvidia e Microsoft, além de projetos open-source como vLLM e SGLang. O problema central está relacionado ao uso inseguro do ZeroMQ (ZMQ) e à desserialização do Python, resultando em um padrão denominado ShadowMQ. A vulnerabilidade mais significativa foi encontrada no framework Llama da Meta (CVE-2024-50050), que permitia a execução de código arbitrário ao desserializar dados maliciosos. Outras plataformas, como NVIDIA TensorRT-LLM e Microsoft Sarathi-Serve, também apresentaram falhas semelhantes. A exploração dessas vulnerabilidades pode permitir que atacantes executem código arbitrário, escalem privilégios e até realizem roubo de modelos de IA. Com a rápida evolução dos projetos de IA, a reutilização de código inseguro se torna um risco crescente. Além disso, um novo relatório revelou que técnicas de injeção de JavaScript podem comprometer navegadores integrados em editores de código, aumentando ainda mais as preocupações de segurança. É crucial que as empresas adotem medidas de mitigação, como desativar recursos de execução automática e auditar servidores de integração.

Cibersabotagem em infraestruturas essenciais se torna ameaça crescente

A cibersabotagem, especialmente por governos autoritários, está se tornando uma preocupação global crescente, conforme destacado por Mike Burgess, diretor-geral da Organização Australiana de Inteligência de Segurança (ASIO). Em um discurso recente, Burgess alertou sobre a disposição de regimes totalitários em utilizar técnicas de cibersabotagem para interromper ou destruir infraestruturas críticas, como redes de telecomunicação e sistemas financeiros. Ele mencionou que incidentes recentes na Austrália, que resultaram em interrupções significativas, podem ter consequências fatais, como a morte de três pessoas.

Vazamento cibernético na China revela operações de hacking globais

Um recente vazamento de dados na empresa de segurança chinesa Knownsec expôs mais de 12.000 documentos classificados que revelam operações de hacking ligadas ao governo chinês. Os arquivos vazados incluem informações sobre ‘armas cibernéticas’, ferramentas internas de inteligência artificial e uma lista extensa de alvos internacionais, abrangendo mais de vinte países, como Japão, Índia e Reino Unido. Entre as informações preocupantes, estão planilhas que detalham ataques a 80 alvos estrangeiros, incluindo empresas de infraestrutura crítica e telecomunicações. O vazamento também revelou dados significativos, como 95GB de registros de imigração da Índia e 3TB de logs de chamadas da LG U Plus da Coreia do Sul. Os especialistas identificaram a presença de Trojans de Acesso Remoto (RATs) que podem comprometer sistemas operacionais populares, além de dispositivos de hacking de hardware utilizados pela Knownsec. Apesar das tentativas do governo chinês de desmentir o incidente, a profundidade da infiltração sugere uma colaboração estreita entre empresas privadas e operações estatais. Este evento destaca a necessidade de uma defesa cibernética mais robusta, que combine monitoramento em tempo real e segmentação de rede.

Google lança tecnologia de privacidade com Private AI Compute

No dia 12 de novembro de 2025, o Google apresentou uma nova tecnologia chamada Private AI Compute, que visa processar consultas de inteligência artificial (IA) em uma plataforma segura na nuvem. A empresa afirma que essa tecnologia desbloqueia a velocidade e o poder dos modelos de nuvem Gemini para experiências de IA, garantindo que os dados pessoais dos usuários permaneçam privados e inacessíveis, nem mesmo ao Google.

O Private AI Compute é descrito como um ’espaço seguro e fortificado’ para o processamento de dados sensíveis, utilizando unidades de processamento de tensor Trillium (TPUs) e enclaves de inteligência Titanium (TIE). Essa infraestrutura é projetada para aproveitar a velocidade computacional da nuvem, mantendo as garantias de segurança e privacidade do processamento local.

Motorola e o lifestyle tech expectativas para a Black Friday

No episódio especial do podcast Canaltech, a Motorola é destaque ao discutir suas inovações em smartphones dobráveis e o uso de inteligência artificial. A diretora de Marketing da Motorola no Brasil, Stella Colucci, compartilha detalhes sobre as parcerias da marca com empresas como Pantone e Swarovski, que visam integrar tecnologia e estilo de vida. O programa também aborda as expectativas para as promoções da Motorola durante a Black Friday, um evento que promete atrair consumidores em busca de ofertas em tecnologia. Além disso, o podcast menciona outros tópicos relevantes, como mudanças no WhatsApp e fraudes envolvendo cartões de crédito, ressaltando a importância da cibersegurança no cenário atual. O episódio é uma oportunidade para os ouvintes se atualizarem sobre as tendências do setor e as estratégias da Motorola para se destacar no mercado.

Inovação e Chips O Futuro da AMD no Brasil

No episódio mais recente do Podcast Canaltech, os repórteres discutem as inovações apresentadas durante o AMD Partner Summit, um evento que reuniu parceiros e a mídia para discutir o futuro da AMD no Brasil. Sérgio Santos, diretor-geral da AMD Brasil, e Patrícia Martins, head da unidade de gráficos, destacaram o foco da empresa em inteligência artificial e inovação, além de suas expectativas de crescimento no mercado brasileiro. Matheus Barbosa, gerente de marketing da Gigabyte Brasil, também participou, abordando a parceria entre as duas empresas e as perspectivas para o mercado gamer até 2026. O podcast também trouxe à tona questões relevantes sobre segurança cibernética, como o vazamento de 40 milhões de downloads de vírus da Play Store e a prisão de um funcionário do Banco do Brasil por roubo de dados de clientes, ressaltando a importância da segurança digital em um cenário de crescente digitalização.

Como a Microsoft quer reinventar a segurança digital na era da IA

Durante o Seattle Security Campus Tour, a Microsoft apresentou sua visão sobre como a inteligência artificial (IA) e a colaboração global estão moldando o futuro da segurança digital. Frank X. Shaw, Diretor de Comunicação Global da Microsoft, destacou que a confiança é fundamental para a inovação, introduzindo o Secure Future Initiative (SFI), um programa que orienta o desenvolvimento de produtos e a resposta a incidentes. Vasu Jakkal, vice-presidente corporativa de Segurança, enfatizou que a segurança deve ser parte integrante de todos os processos da empresa, processando diariamente mais de 100 trilhões de sinais de segurança. A automação na detecção de falhas humanas foi exemplificada por um incidente em que um token interno foi exposto no GitHub, gerando um alerta imediato. Tori Westerhoff, do Red Team de IA, revelou que sua equipe simula ataques aos modelos de IA da Microsoft, explorando vulnerabilidades e comportamentos inesperados. Por fim, Herain Oberoi apresentou uma plataforma de defesa integrada que utiliza IA para proteger dados e identidades, ressaltando a importância do equilíbrio entre autonomia da IA e responsabilidade humana. A segurança, segundo os executivos, não é apenas um produto, mas a base para inovação e liberdade digital.

Por dentro da divisão da Microsoft que caça hackers pelo mundo

Durante o Microsoft Security Campus Tour, a Digital Crimes Unit (DCU) da Microsoft foi apresentada como um núcleo global dedicado à investigação de crimes digitais. Sob a liderança de Steve Masada, a equipe atua em três frentes principais: interromper infraestruturas criminosas, fornecer suporte jurídico e orientar empresas e governos em resposta a incidentes. A DCU monitora centenas de grupos de hackers e analisa bilhões de sinais de segurança diariamente, utilizando dados de produtos como Windows e Azure para agir de forma preventiva. Além disso, a equipe realiza simulações de crise cibernética para preparar empresas para possíveis ataques. Richard Domingues Boscovich, advogado sênior da DCU, destacou um caso recente de uso indevido de inteligência artificial generativa, onde imagens difamatórias foram criadas e disseminadas. A investigação levou à identificação dos responsáveis e à aplicação de ações legais. A DCU busca neutralizar o ecossistema criminoso e tornar o cibercrime mais difícil e caro. A abordagem da Microsoft enfatiza a antecipação de ameaças e a utilização de tecnologia como ferramenta de defesa, consolidando a segurança digital como um pilar essencial da inovação.

IA vai roubar empregos? O futuro é mais colaborativo do que você imagina

O podcast Canaltech discute a perspectiva da inteligência artificial (IA) no mercado de trabalho, com base em uma pesquisa do Instituto dos Engenheiros Eletricistas e Eletrônicos (IEEE). A pesquisa sugere que, ao invés de substituir empregos, a IA deve expandir oportunidades de trabalho em 2026. O repórter Marcelo Fischer entrevista Gabriel Gomes de Oliveira, professor da Universidade Estadual de Campinas, que destaca que a colaboração entre humanos e máquinas será fundamental. O episódio também aborda outras questões relevantes, como promessas da Apple sobre a Siri com IA, demissões na Rockstar e vazamentos de dados na dark web. A discussão enfatiza que a adoção da IA pode levar a um ambiente de trabalho mais colaborativo, onde as habilidades humanas são complementadas pela tecnologia, ao invés de serem substituídas por ela.

Estudo do MIT sobre ransomware e IA é retirado após críticas

Um estudo da MIT Sloan School of Management, que afirmava que 80,83% dos ataques de ransomware eram realizados por criminosos utilizando inteligência artificial (IA), foi retirado após críticas severas de especialistas em cibersegurança. O estudo, co-autorado por pesquisadores do MIT e executivos da Safe Security, foi amplamente desacreditado por figuras proeminentes da área, como Kevin Beaumont e Marcus Hutchins, que consideraram as alegações como ‘ridículas’ e ‘sem provas’. Beaumont destacou que o estudo mencionava grupos de ransomware que não utilizam IA e até citou o Emotet, que não está ativo há anos. Após a repercussão negativa, o MIT anunciou que o documento estava sendo revisado. O autor Michael Siegel afirmou que o objetivo do estudo era alertar sobre o aumento do uso de IA em ataques cibernéticos e a necessidade de medições adequadas. A controvérsia ressalta a tensão crescente na pesquisa em cibersegurança, onde o entusiasmo por IA pode ofuscar a análise factual. Embora a IA tenha potencial tanto para ataques quanto para defesas, exagerar seu uso malicioso pode distorcer prioridades, especialmente quando proveniente de instituições respeitáveis como o MIT.

Previsão de Cibersegurança 2026 Google prevê aumento de ataques impulsionados por IA

O relatório ‘Cybersecurity Forecast 2026’ do Google Cloud destaca uma mudança significativa no cenário de cibersegurança, com a adoção crescente de inteligência artificial (IA) tanto por atacantes quanto por defensores. O documento, que se baseia em análises de especialistas em segurança do Google, prevê que o próximo ano será marcado por uma evolução tecnológica rápida e técnicas de ataque cada vez mais sofisticadas. Um dos principais achados é a normalização do uso de IA por cibercriminosos, que estão integrando essa tecnologia em todos os ciclos de ataque, permitindo campanhas mais rápidas e ágeis. A vulnerabilidade de injeção de prompt, onde atacantes manipulam sistemas de IA para executar comandos ocultos, é uma preocupação crescente. Além disso, a engenharia social habilitada por IA, como campanhas de vishing com clonagem de voz, está se tornando mais comum, dificultando a detecção de ataques de phishing. O relatório também menciona que o ransomware e a extorsão continuarão a ser as categorias mais disruptivas e financeiramente prejudiciais, com foco em provedores terceirizados e vulnerabilidades críticas. A previsão sugere que as equipes de segurança devem se adaptar rapidamente, utilizando metodologias de IA para fortalecer suas defesas e preparar-se para um aumento nas atividades de engenharia social e operações de estados-nação.

Google descobre malware PROMPTFLUX que usa IA para evasão

O Google revelou a descoberta de um novo malware chamado PROMPTFLUX, que utiliza um script em Visual Basic (VBScript) para interagir com a API do modelo de inteligência artificial Gemini. Este malware é capaz de gerar seu próprio código-fonte, permitindo técnicas de ofuscação e evasão em tempo real, o que dificulta a detecção por sistemas de segurança baseados em assinaturas estáticas. A funcionalidade inovadora do PROMPTFLUX é parte de um componente denominado ‘Thinking Robot’, que consulta periodicamente o modelo de linguagem Gemini para obter novas técnicas de evasão. Embora atualmente o malware não tenha capacidade de comprometer redes ou dispositivos, sua evolução e a possibilidade de auto-modificação indicam um potencial de ameaça crescente. O Google também observou que atores maliciosos estão utilizando IA não apenas para aumentar a produtividade, mas para desenvolver ferramentas que se adaptam durante a execução. Além disso, o uso de IA por grupos patrocinados por estados, como os da China e Irã, para criar conteúdo enganoso e desenvolver infraestrutura técnica para exfiltração de dados, destaca a crescente sofisticação das ameaças cibernéticas. A expectativa é que o uso de IA por atores maliciosos se torne a norma, aumentando a velocidade e a eficácia de suas operações.

Por que a bateria do celular ainda é o maior desafio da tecnologia

No episódio mais recente do Podcast Canaltech, especialistas discutem os desafios enfrentados na busca por baterias de celular com maior autonomia. Hudson Zanin, professor da Unicamp, e André Varga, diretor de produto da JOVI, abordam os avanços nas tecnologias de baterias, como as de íon-lítio e silício-carbono, que prometem melhorar a duração das cargas. Apesar dos progressos, a corrida por baterias que durem mais tempo longe da tomada ainda enfrenta barreiras significativas, tanto do ponto de vista técnico quanto de mercado. Os convidados também exploram como a inteligência artificial pode ser uma aliada ou um obstáculo nesse processo. Além disso, o episódio traz atualizações sobre lançamentos de produtos e falhas de segurança que afetam bilhões de usuários, destacando a relevância contínua da cibersegurança no contexto tecnológico atual.

O novo consumidor como a IA está mudando o marketing, segundo o Google

No episódio mais recente do Podcast Canaltech, Guilherme Haas entrevista Arthur Borges, Head de Negócios para Mid-Market no Google, sobre a transformação do marketing impulsionada pela inteligência artificial (IA). A conversa se baseia no estudo ‘Mapa da Influência’, realizado em parceria com a Boston Consulting Group, que revela como o tradicional funil de marketing evoluiu para uma jornada mais dinâmica, caracterizada por quatro hábitos principais: buscar, rolar, assistir e comprar. Borges destaca a importância da maturidade digital e como a IA pode ser utilizada para personalizar experiências de forma responsável. Além disso, ele menciona as habilidades que os profissionais de marketing e tecnologia devem desenvolver para se adaptarem a essas mudanças. O podcast também aborda outras notícias relevantes do setor, como a entrada da OpenAI no mercado e o Brasil sendo um dos principais alvos de fraudes digitais.

IA e Regulamentação Tendências em Cibersegurança para 2026

No último Fórum Latinoamericano de Segurança da ESET, realizado no Uruguai, especialistas discutiram as tendências em cibersegurança até 2026, destacando o uso crescente da inteligência artificial (IA) em crimes virtuais. Pesquisadores como Martina López e Mario Micucci alertaram para o aumento do uso de IA agêntica, que permite a execução de ataques cibernéticos com mínima intervenção humana, especialmente em phishing e spear-phishing. Além disso, a evolução dos ransomwares, incluindo o modelo ransomware-as-a-service (RaaS), foi enfatizada, com a introdução de ransomwares desenvolvidos com IA, como o LunaLock. A regulamentação da IA também foi um ponto central, com a necessidade de legislações que garantam transparência e proteção contra abusos, como deepfakes. O Ato de Inteligência Artificial da União Europeia foi citado como um exemplo positivo, exigindo que empresas informem sobre o uso de IA. O artigo conclui que a cibersegurança enfrentará desafios significativos, com a necessidade de auditorias eficazes e regulamentações que protejam a integridade dos dispositivos tecnológicos.

Polícia usa IA para decifrar comunicação de cibercriminosos

A Polícia Federal da Austrália (AFP) está desenvolvendo uma ferramenta de inteligência artificial (IA) para decifrar a comunicação de cibercriminosos, especialmente aqueles que utilizam emojis e gírias das gerações Z e Alpha em discussões online sobre crimes. Esses criminosos, conhecidos como ‘crimefluencers’, atraem jovens e crianças para grupos de ódio, utilizando uma linguagem que pode ser difícil de interpretar para as autoridades. A comissária da AFP, Krissy Barrett, destacou que a maioria das vítimas são pré-adolescentes e jovens, o que motivou a criação dessa ferramenta. O projeto ainda está em fase de desenvolvimento e busca criar um protótipo que consiga interpretar a comunicação criptografada em grupos de bate-papo. A expectativa é que a IA consiga traduzir termos específicos com base no contexto e na semântica, embora o desafio de acompanhar a constante evolução das gírias e emojis possa dificultar a eficácia da ferramenta. A iniciativa faz parte de uma força-tarefa maior da Five Eyes Law Enforcement Group, que inclui países como Reino Unido, EUA, Canadá e Nova Zelândia, todos trabalhando juntos para combater crimes digitais.

OpenAI lança Aardvark, pesquisador de segurança autônomo com IA

A OpenAI anunciou o lançamento do Aardvark, um pesquisador de segurança autônomo alimentado pelo modelo de linguagem GPT-5. Este agente de inteligência artificial foi projetado para ajudar desenvolvedores e equipes de segurança a identificar e corrigir vulnerabilidades em código de forma escalável. Atualmente em beta privada, o Aardvark analisa repositórios de código-fonte continuamente, identificando vulnerabilidades, avaliando sua explorabilidade e propondo correções. O modelo GPT-5, introduzido em agosto de 2025, oferece capacidades de raciocínio mais profundas e um ‘roteador em tempo real’ para otimizar a interação com os usuários.

Google Introduz Proteção com IA no Android Contra Golpes Móveis

Em resposta à crescente ameaça de golpes móveis, a Google anunciou melhorias significativas na proteção do Android, utilizando inteligência artificial para combater fraudes. Em um relatório divulgado em 30 de outubro de 2025, a empresa destacou que suas defesas baseadas em IA superam as de outras plataformas, com um impacto positivo na segurança dos usuários. No último ano, os golpes móveis geraram perdas superiores a 400 bilhões de dólares globalmente. O sistema do Android processa mensalmente mais de 10 bilhões de chamadas e mensagens suspeitas, bloqueando mais de 100 milhões de números fraudulentos recentemente. A pesquisa realizada pela YouGov, envolvendo 5.000 usuários nos EUA, Índia e Brasil, revelou que usuários do Android, especialmente os do Google Pixel, relataram menos mensagens de golpe em comparação aos usuários do iOS. Além disso, a análise de segurança da Leviathan Security Group confirmou que o Pixel 10 Pro oferece a melhor proteção contra fraudes. As funcionalidades incluem filtragem automática de spam e detecção de padrões de conversação fraudulentos, garantindo a privacidade dos usuários. Com atualizações contínuas através do Google Play Protect, o Android se mantém à frente das ameaças móveis em constante evolução.

Brasil lidera ranking mundial de fraudes digitais

O Brasil ocupa a primeira posição no ranking global de vítimas de fraudes digitais, segundo o Índice de Fraude 2025, elaborado pela Veriff. A pesquisa revela que os brasileiros enfrentam ataques online cinco vezes mais do que cidadãos dos Estados Unidos e do Reino Unido. Aproximadamente 26% dos entrevistados no Brasil relataram ter sido vítimas de fraudes nos últimos doze meses, enquanto as taxas nos EUA e Reino Unido são de 15% e 10%, respectivamente. O impacto financeiro é alarmante, com quase 40% dos brasileiros perdendo até R$ 1.300 em golpes, e 5% relatando perdas superiores a R$ 26 mil em um único incidente. A pesquisa também destaca o papel crescente da inteligência artificial (IA) e dos deepfakes, que contribuíram para um aumento de 21% nas fraudes digitais em comparação ao ano anterior. Quase metade dos entrevistados expressou preocupação com o uso de IA em golpes, refletindo um clima de insegurança. Apesar disso, os brasileiros demonstram maior disposição para adotar sistemas de proteção digital em comparação à média global, indicando uma conscientização crescente sobre a segurança online.

Simulação de Brechas A Nova Fronteira da Cibersegurança

O Picus Breach and Simulation (BAS) Summit deste ano destacou uma mudança significativa na abordagem da cibersegurança, enfatizando que a defesa não se trata mais de prever ataques, mas de provar a eficácia das defesas existentes. Com a velocidade com que novos exploits surgem e se espalham, a necessidade de testar controles em tempo real se torna crucial. O BAS evoluiu de uma atividade anual de conformidade para uma prática diária que valida se as defesas estão realmente funcionando. A simulação de comportamentos adversariais em ambientes controlados permite que as equipes de segurança entendam como suas defesas reagem a ataques, focando em resultados e não apenas em inventários de vulnerabilidades. Além disso, a integração da inteligência artificial no processo de cibersegurança se mostrou mais eficaz na organização de dados do que na criação de novos, permitindo uma resposta mais rápida e precisa a ameaças. O evento também evidenciou que a validação contínua das defesas pode transformar a abordagem de ‘corrigir tudo’ para ‘corrigir o que realmente importa’, priorizando as vulnerabilidades que representam riscos reais. Essa mudança de paradigma é essencial para que as organizações se mantenham à frente das ameaças cibernéticas.

Avanço da IA desafia empresas com aumento de fraudes corporativas

O uso crescente da inteligência artificial (IA) no ambiente corporativo trouxe não apenas otimizações, mas também um aumento alarmante nas fraudes. Um levantamento da plataforma AppZen revelou que, em setembro de 2025, cerca de 14% dos documentos falsos foram gerados com a ajuda da IA, um aumento significativo em relação a 2024, quando essas fraudes eram raras. Os esquemas mais comuns incluem a criação de notas fiscais e comprovantes falsos, tornando a detecção desses golpes cada vez mais desafiadora. A fintech Ramp, por exemplo, bloqueou mais de US$ 1 milhão em notas suspeitas nos últimos três meses. Especialistas, como Fernando Nery, CEO da fintech Portão 3, alertam que a sofisticação das fraudes exige que as empresas invistam em mecanismos de verificação inteligente e cruzamento de dados em tempo real para aumentar a confiança na detecção de documentos falsificados. A situação exige uma reavaliação das práticas de controle financeiro, uma vez que o risco não se limita mais à falta de processos, mas à capacidade de identificar falsificações quase perfeitas geradas por IA.

Inteligência Artificial e sua Transformação no GRC

A Inteligência Artificial (IA) está revolucionando a Governança, Risco e Conformidade (GRC), trazendo mudanças significativas na forma como as equipes operam. As capacidades da IA incluem acelerar auditorias, identificar riscos críticos rapidamente e reduzir o trabalho manual, resultando em maior eficiência e precisão. No entanto, essa transformação também apresenta novos desafios, como viés potencial, lacunas regulatórias e pontos cegos perigosos, que ainda estão sendo abordados por órgãos reguladores. Para ajudar as organizações a se adaptarem a esse novo cenário, será realizado um webinar gratuito intitulado ‘O Futuro da IA no GRC: Oportunidades, Riscos e Insights Práticos’. O evento abordará exemplos reais de como a IA melhora fluxos de trabalho de conformidade, lições aprendidas e melhores práticas, além de estratégias para identificar e mitigar riscos comuns. A velocidade da inovação em IA é impressionante, e a lacuna entre a capacidade tecnológica e o arcabouço legal representa uma exposição imediata ao risco. O webinar reunirá especialistas e exemplos práticos, permitindo que as organizações se preparem proativamente para os desafios que a IA traz ao GRC.

Nova vulnerabilidade em navegadores expõe modelos de IA a ataques

Pesquisadores em cibersegurança identificaram uma nova vulnerabilidade em navegadores web que utilizam inteligência artificial, como o OpenAI ChatGPT Atlas. O problema, denominado ‘cloaking direcionado a IA’, permite que atacantes manipulem o conteúdo exibido para crawlers de IA, expondo-os a ataques de envenenamento de contexto. A técnica, semelhante ao cloaking de motores de busca, utiliza uma verificação simples do agente do usuário para entregar conteúdo diferente para humanos e sistemas de IA. Isso pode distorcer a percepção de autoridade e verdade, afetando milhões de usuários. A empresa SPLX, que divulgou a vulnerabilidade, alerta que essa manipulação pode ser uma arma poderosa de desinformação, comprometendo a confiança nas ferramentas de IA. Além disso, um estudo da hCaptcha Threat Analysis Group revelou que muitos navegadores tentaram executar ações maliciosas sem necessidade de jailbreak, indicando uma falta de salvaguardas adequadas. Isso levanta preocupações sobre a segurança de sistemas que dependem de IA, especialmente em um cenário onde a otimização para IA se torna cada vez mais comum.

Quando malware de IA encontra DDoS um novo desafio para a resiliência online

O uso de inteligência artificial (IA) no cibercrime está crescendo rapidamente, com 80% dos ataques de ransomware em 2023-2024 utilizando essa tecnologia. Ferramentas como GhostGPT e AkiraBot estão permitindo que cibercriminosos criem códigos maliciosos, elaborem e-mails de phishing e contornem CAPTCHAs. A evolução dos ataques DDoS, especialmente os de camada de aplicação, se torna mais complexa, pois a IA pode mimetizar o comportamento humano, dificultando a identificação de bots. A proteção tradicional, baseada em CAPTCHAs, já não é eficaz. Em resposta, a filtragem baseada em intenção surge como uma alternativa, avaliando o comportamento do usuário em vez de tentar distinguir humanos de máquinas. As empresas precisam investir em plataformas de mitigação de DDoS que suportem essa nova abordagem e implementar monitoramento em múltiplas camadas para detectar anomalias. A falta de soluções adequadas entre os provedores de segurança gerencia um risco significativo, especialmente para grandes empresas, que podem sofrer danos reputacionais e financeiros severos em caso de ataques bem-sucedidos.

IA generativa permite falsificação perfeita de documentos, alerta especialista

Durante o Cyber Security Summit 2025, o especialista em cibersegurança Andrew Bindner alertou sobre os riscos da inteligência artificial generativa na falsificação de documentos. Ele destacou que qualquer pessoa com acesso a ferramentas de IA pode criar documentos falsos, como carteiras de identidade e passaportes, que são visualmente perfeitos. Essa facilidade de criação de documentos falsificados representa uma ameaça significativa à segurança global, pois torna mais difícil a detecção de fraudes e espionagem. Bindner enfatizou a necessidade de educação cibernética e cooperação internacional para fortalecer a confiança no ambiente digital. Vitor Garcia, da Embraer, complementou que a IA não é apenas uma ameaça, mas também pode ser utilizada como uma ferramenta de defesa contra crimes digitais. A discussão levantou a importância de um esforço conjunto entre empresas e governos para mitigar os riscos associados ao uso malicioso da IA, que pode automatizar crimes digitais e comprometer a segurança das identidades digitais.

A Crise Silenciosa da Segurança em Inteligência Artificial

O uso crescente de inteligência artificial (IA) nas empresas traz benefícios como produtos mais rápidos e sistemas mais inteligentes, mas também levanta preocupações significativas em relação à segurança. Atualmente, estima-se que existam 100 agentes de IA para cada funcionário humano, e alarmantes 99% desses agentes estão completamente não gerenciados, sem supervisão ou controles de ciclo de vida. Isso representa um risco real, pois cada um desses agentes pode se tornar uma porta dos fundos para invasões. O artigo destaca a necessidade urgente de adaptar as ferramentas de segurança tradicionais para lidar com esse novo cenário. Um webinar gratuito intitulado ‘Transformando Controles em Aceleradores da Adoção de IA’ promete oferecer estratégias práticas para que as empresas possam implementar segurança desde o início, em vez de como uma reflexão tardia. Os participantes aprenderão a governar agentes de IA, a evitar a proliferação de credenciais e a alinhar a segurança com os objetivos de negócios, permitindo que a segurança não seja um obstáculo, mas sim um facilitador da adoção de IA. Essa abordagem é essencial para que engenheiros, arquitetos e CISOs possam deixar de atuar de forma reativa e passar a ter controle e confiança em suas operações de segurança.

Ciberataques e espionagem internacional são impulsionados por IA generativa

Um relatório da Microsoft revelou que, entre janeiro e julho de 2025, mais de 200 casos de hackers estrangeiros utilizaram inteligência artificial (IA) para criar e disseminar conteúdo falso e realizar ataques diretos a governos. Este número representa um aumento significativo em relação aos anos anteriores, com mais do que o dobro de casos registrados em 2024 e mais de dez vezes em comparação a 2023. Os cibercriminosos estão utilizando IA para automatizar ataques, como a tradução de e-mails de phishing, tornando-os mais convincentes e difíceis de identificar. Além disso, a criação de clones digitais de altos funcionários governamentais tem sofisticado as táticas de engenharia social, visando a obtenção de dados confidenciais e a desestabilização de serviços essenciais. A vice-presidente de Segurança e Confiança do Cliente da Microsoft, Amy Hogan-Buney, destacou que os EUA são o país mais visado, seguido por Israel e Ucrânia. Apesar das evidências, países como Rússia e China negam envolvimento em operações cibernéticas de espionagem. A Coreia do Norte, por sua vez, tem utilizado IA para criar identidades falsas, permitindo acesso a segredos comerciais e a instalação de malwares em empresas de tecnologia.

Inteligência Artificial e Segurança Cibernética Desafios e Oportunidades

A inteligência artificial (IA) tem um grande potencial para aprimorar a defesa cibernética, facilitando o trabalho dos profissionais de segurança. Ela pode ajudar a reduzir a fadiga de alertas, identificar padrões rapidamente e escalar operações de segurança de forma que os analistas humanos não conseguem. No entanto, a adoção de IA também amplia a superfície de ataque das organizações, exigindo governança clara, controles de identidade robustos e visibilidade nas decisões tomadas pela IA. Para garantir a segurança, é fundamental estabelecer confiança nos dados que a IA utiliza, responsabilidade pelas ações que executa e supervisão dos resultados que produz. O artigo destaca a importância de tratar sistemas de IA como identidades críticas dentro do gerenciamento de identidade e acesso (IAM), aplicando controles rigorosos como credenciais limitadas, autenticação forte e monitoramento contínuo. Além disso, sugere práticas recomendadas para proteger modelos de IA, incluindo controles de acesso, validação de dados e segurança na inferência. A integração responsável da IA nas operações de segurança pode permitir que as equipes trabalhem de maneira mais inteligente e eficaz, mas é essencial encontrar um equilíbrio entre automação e supervisão humana.

Cibercrime movimenta US 10 trilhões dados sobre IA e segurança

O avanço da inteligência artificial generativa tem transformado o cibercrime em uma economia paralela que movimenta anualmente cerca de US$ 10 trilhões, segundo Tania Cosentino, ex-presidente da Microsoft Brasil. Durante sua apresentação no CRM Zummit 2025, Cosentino destacou que a combinação de novas tecnologias, como a migração para a nuvem e o trabalho remoto, ampliou a superfície de ataque, tornando as empresas mais vulneráveis. Os hackers utilizam IA para aumentar a velocidade e a sofisticação de seus ataques, resultando em ameaças complexas, como ransomware e ataques a cadeias de suprimento. O tempo de resposta dos atacantes é alarmante, com a média de apenas 1 hora e 12 minutos para se mover lateralmente dentro de uma rede após o acesso inicial. O Brasil é um dos países mais atacados, especialmente em ransomware, devido à percepção de que os resgates são frequentemente pagos. Além disso, a falta de profissionais qualificados em cibersegurança e a disparidade entre regiões do país agravam a situação. A segurança cibernética não é apenas uma questão técnica, mas também um diferencial competitivo, pois 69% dos consumidores evitam empresas percebidas como inseguras.

63 dos consumidores brasileiros não conseguem identificar golpes com IA

Uma pesquisa realizada pelo Reclame AQUI revelou que 63% dos consumidores brasileiros não conseguem identificar golpes digitais que utilizam inteligência artificial (IA), uma vulnerabilidade preocupante especialmente com a aproximação da Black Friday. O estudo, que ouviu mais de 3.300 pessoas, destaca que 79% dos entrevistados planejam comprar online durante a Black Friday, mas apenas 43% verificam links e ofertas com ferramentas de segurança. A pesquisa também aponta que 20% dos consumidores já foram vítimas de fraudes em edições anteriores do evento. O uso crescente de IA por cibercriminosos para criar campanhas de phishing mais sofisticadas torna essencial que os consumidores estejam informados e preparados. O relatório, intitulado “Black Friday na era da Inteligência Artificial”, serve como um guia tanto para consumidores quanto para marcas, enfatizando a importância da segurança nas compras online.

Risco zero não existe alívio para quem precisa decidir

O artigo de Arthur Capella discute a crescente complexidade da cibersegurança em um ambiente de trabalho distribuído e digitalizado, onde a migração para a nuvem e a adoção de inteligência artificial (IA) aumentam tanto o valor quanto o risco. A superfície de ataque se expandiu mais rapidamente do que a capacidade das empresas de medir e responder a essas ameaças. A gestão de exposição é apresentada como uma disciplina estratégica, essencial para priorizar riscos com base no impacto nos negócios, em vez de se concentrar apenas em uma lista de vulnerabilidades. O autor destaca a escassez de profissionais qualificados em cibersegurança e a limitação orçamentária como desafios constantes. Além disso, enfatiza que apenas 3% das vulnerabilidades frequentemente resultam em riscos significativos, tornando a priorização crucial. O artigo conclui que, em vez de tentar eliminar todos os riscos, as empresas devem focar em fechar as portas que realmente importam, equilibrando inovação e segurança.

Como a IA está transformando a segurança cibernética

O uso crescente da inteligência artificial (IA) está revolucionando a forma como os atacantes realizam a fase de reconhecimento em cibersegurança. Antes de enviar um ataque, os hackers analisam minuciosamente o ambiente da vítima, explorando fluxos de login, arquivos JavaScript, mensagens de erro e documentação de APIs. A IA acelera esse processo, permitindo que os atacantes mapeiem sistemas com maior rapidez e precisão. Embora a IA não execute ataques de forma autônoma, ela otimiza a coleta e análise de informações, ajudando a identificar vulnerabilidades e caminhos de ataque.

Ataques cibernéticos em evolução vulnerabilidades e ameaças emergentes

O cenário de cibersegurança continua a se deteriorar, com ataques cada vez mais sofisticados e coordenados. Um dos principais incidentes recentes envolve a exploração de uma falha crítica no Oracle E-Business Suite, afetando diversas organizações desde agosto de 2025. A falha, identificada como CVE-2025-61882, possui uma pontuação CVSS de 9.8 e foi utilizada por grupos como o Cl0p para exfiltrar dados sensíveis. Além disso, o grupo Storm-1175 explorou uma vulnerabilidade no GoAnywhere MFT, resultando em ataques em setores variados, como transporte e educação.

Hackers russos usam inteligência artificial em ataques cibernéticos na Ucrânia

No primeiro semestre de 2025, hackers russos intensificaram o uso de inteligência artificial (IA) em ataques cibernéticos contra a Ucrânia, conforme relatado pelo Serviço Estatal de Comunicações Especiais e Proteção da Informação (SSSCIP). A agência registrou 3.018 incidentes cibernéticos, um aumento em relação aos 2.575 do segundo semestre de 2024. Os ataques incluem campanhas de phishing e o uso de malware gerado por IA, como o WRECKSTEEL, que visa a administração estatal e infraestrutura crítica. Além disso, grupos como UAC-0218 e UAC-0226 têm direcionado suas ações a forças de defesa e órgãos governamentais, utilizando táticas sofisticadas como arquivos RAR armadilhados e técnicas de engenharia social. O SSSCIP também observou a exploração de vulnerabilidades em softwares de webmail, permitindo ataques sem interação do usuário. A utilização de serviços legítimos como Dropbox e Google Drive para hospedar malware também tem crescido, evidenciando a adaptação dos atacantes às tecnologias disponíveis. O cenário de guerra híbrida se intensifica, com operações cibernéticas sincronizadas a ataques físicos no campo de batalha.

Da exaustão à superação fotógrafos recuperam tempo perdido com IA

A indústria da fotografia está passando por uma transformação significativa com a adoção de ferramentas de inteligência artificial (IA), conforme revelado no relatório Aftershoot Photography Workflow Report de 2025. Com base em respostas de mais de 1.000 fotógrafos profissionais globalmente, o estudo indica que 81% dos entrevistados que implementaram fluxos de trabalho baseados em IA melhoraram seu equilíbrio entre vida profissional e pessoal, recuperando tempo anteriormente perdido em edições repetitivas. Um dado impressionante é que 64% dos fotógrafos afirmaram que seus clientes não perceberam diferença entre imagens editadas por IA e aquelas editadas manualmente. Essa mudança de percepção está redefinindo o que significa ter um negócio criativo sustentável, permitindo que os profissionais se concentrem em crescimento pessoal e bem-estar mental. Além disso, 28% dos fotógrafos agora conseguem entregar galerias completas em menos de uma semana, o que representa o dobro da taxa de 2024. A automação não apenas aumenta a produtividade, mas também redefine o tempo criativo, permitindo que os fotógrafos se concentrem em projetos pessoais e desenvolvimento de habilidades. A pesquisa sugere que a IA não substitui a criatividade, mas a amplifica, ajudando os fotógrafos a atender às expectativas de entrega rápida e qualidade consistente.

As 10 Melhores Empresas de Prevenção à Fraude em 2025

A prevenção de fraudes é uma prioridade crítica para empresas de todos os tamanhos em 2025, à medida que os cibercriminosos evoluem suas táticas e exploram novas vulnerabilidades. Proteger dados sensíveis, garantir a segurança das transações e manter a confiança do cliente são essenciais no cenário digital atual. Este artigo apresenta as dez melhores empresas de prevenção à fraude de 2025, selecionadas com base em suas tecnologias avançadas, soluções abrangentes e sucesso comprovado no combate à fraude. As empresas listadas utilizam inteligência artificial, aprendizado de máquina, biometria comportamental e análises em tempo real para detectar e prevenir atividades fraudulentas de forma rápida e precisa. As soluções não apenas protegem as empresas contra perdas financeiras, mas também ajudam a manter a conformidade com as regulamentações em evolução e a preservar a reputação da marca. A escolha da melhor empresa de prevenção à fraude permite que as organizações se mantenham à frente das tendências de fraude e protejam suas operações de forma eficaz, reduzindo falsos positivos e otimizando fluxos de trabalho de fraude, melhorando a experiência do cliente.

As 10 Melhores Empresas de Segurança em Inteligência de Cadeia de Suprimentos em 2025

No contexto atual da economia global interconectada, a segurança das cadeias de suprimentos se tornou uma prioridade crítica para empresas em todo o mundo. O aumento de ciberataques, vazamentos de dados e interrupções geopolíticas ameaça a estabilidade das cadeias de suprimentos e a continuidade dos negócios. Para enfrentar esses riscos, empresas especializadas em segurança de inteligência de cadeia de suprimentos utilizam tecnologias avançadas como inteligência artificial (IA), aprendizado de máquina, inteligência de ameaças e análises de risco. Essas soluções permitem que as organizações identifiquem proativamente vulnerabilidades, monitorem fornecedores e mitiguem ameaças em tempo real. O artigo apresenta uma análise das dez melhores empresas de segurança em inteligência de cadeia de suprimentos em 2025, avaliando-as com base em critérios como especificações, recursos, razões para compra, prós e contras. A lista destaca empresas que se destacam em precisão, capacidade de integração e insights acionáveis, ajudando os gestores de risco a responder rapidamente e reduzir potenciais interrupções ou violações na cadeia de suprimentos.

Top 10 Melhores Soluções de Proteção de Marca para Empresas em 2025

Em 2025, com o aumento sem precedentes de riscos digitais, como falsificações, phishing e roubo de propriedade intelectual, as empresas precisam de soluções rigorosas de proteção de marca. O artigo apresenta as 10 melhores soluções de proteção de marca, destacando suas forças, especificações e razões para aquisição. As soluções modernas combinam automação, inteligência artificial e expertise humana para monitorar ativos digitais e proteger a confiança da marca em escala global. Entre as principais soluções estão Red Points, BrandShield e MarkMonitor, cada uma oferecendo recursos como detecção automatizada, cobertura multicanal e análises impulsionadas por IA. A escolha da solução certa é crucial para que as marcas operem com confiança e inovem de forma segura, especialmente em um cenário onde a proteção vai além da segurança tradicional.

As 10 Melhores Plataformas de Proteção Digital em 2025

Com a crescente digitalização das empresas, a superfície de ataque a ameaças cibernéticas também se expande. As plataformas de Proteção de Risco Digital (DRP) são essenciais para detectar, monitorar e mitigar ameaças externas, garantindo uma defesa proativa. Em 2025, as principais plataformas de DRP incorporaram automação, análises impulsionadas por inteligência artificial e integração de informações. As organizações não podem mais depender apenas de ferramentas tradicionais de cibersegurança, como firewalls. As dez melhores plataformas de DRP oferecem monitoramento em tempo real, enriquecimento de inteligência sobre ameaças e integração de resposta a incidentes. A escolha da plataforma certa pode ser a diferença entre antecipar-se a ataques ou reagir tarde demais, resultando em danos à marca e perdas financeiras. Entre as principais plataformas destacam-se Proofpoint, ReliaQuest e BlueVoyant Sky, cada uma com características únicas que atendem a diferentes necessidades de segurança, especialmente para grandes empresas e instituições financeiras. A adoção dessas tecnologias é crucial para proteger a reputação e os ativos digitais das organizações frente a ameaças emergentes.

OpenAI desmantela grupos que usavam ChatGPT para desenvolver malware

No dia 8 de outubro de 2025, a OpenAI anunciou a interrupção de três grupos de atividade que estavam utilizando sua ferramenta de inteligência artificial, o ChatGPT, para facilitar o desenvolvimento de malware. Um dos grupos, de língua russa, usou o chatbot para criar e aprimorar um trojan de acesso remoto (RAT) e um ladrão de credenciais, buscando evitar a detecção. A OpenAI observou que esses usuários estavam associados a grupos criminosos que compartilhavam evidências de suas atividades em canais do Telegram. Embora os modelos de linguagem da OpenAI tenham se recusado a atender a pedidos diretos para criar conteúdo malicioso, os criminosos contornaram essa limitação, gerando códigos que foram montados para criar fluxos de trabalho maliciosos. Outro grupo, da Coreia do Norte, utilizou o ChatGPT para desenvolver malware e ferramentas de comando e controle, enquanto um terceiro grupo, da China, focou em campanhas de phishing. Além disso, a OpenAI bloqueou contas que estavam envolvidas em fraudes e operações de influência, incluindo atividades de vigilância ligadas a entidades governamentais chinesas. A empresa destacou que os atores de ameaça estão se adaptando para ocultar sinais de que o conteúdo foi gerado por uma ferramenta de IA, o que representa um novo desafio para a segurança cibernética.

A Inteligência Artificial e a Evolução da Cibersegurança

A inteligência artificial (IA) está transformando o cenário da cibersegurança, tanto para atacantes quanto para defensores. Os cibercriminosos utilizam ferramentas baseadas em IA para automatizar e acelerar ataques, criando um desafio sem precedentes para as equipes de segurança, que enfrentam uma avalanche de dados sobre vulnerabilidades e alertas. Apesar do potencial da IA, muitas empresas ainda têm dificuldades em integrá-la efetivamente em suas estratégias de segurança. O artigo destaca três áreas principais onde a IA pode ser aplicada para maximizar a eficácia: deduplicação e correlação de dados, priorização de riscos e uma camada de inteligência que complementa a análise humana. A deduplicação ajuda a criar uma visão clara dos riscos, enquanto a priorização permite que as equipes concentrem seus esforços nas vulnerabilidades mais críticas. A camada de inteligência fornece recomendações e simulações que capacitam os analistas a tomar decisões mais informadas. Com a crescente utilização de IA pelos atacantes, é imperativo que as organizações adotem essas tecnologias para se manterem à frente. Plataformas como a PlexTrac estão na vanguarda dessa transformação, investindo em capacidades de IA para ajudar as equipes a gerenciar dados de forma centralizada e eficaz.

As 10 Melhores Soluções de Gestão de Risco da Cadeia de Suprimentos em 2025

A gestão de risco da cadeia de suprimentos (SCRM) se tornou um pilar essencial para empresas que buscam resiliência em 2025. Com a crescente interconexão e fragilidade das cadeias globais, as organizações enfrentam riscos que vão desde conflitos geopolíticos até ciberataques. O artigo destaca as 10 melhores soluções de SCRM, que utilizam análises preditivas, monitoramento em tempo real e insights impulsionados por inteligência artificial para proteger suas redes de suprimentos. Entre as soluções mencionadas, Prewave se destaca por sua capacidade de detectar riscos em tempo real e monitorar a conformidade ESG, enquanto Resilinc oferece visibilidade em múltiplos níveis da cadeia de suprimentos, essencial para setores como tecnologia e saúde. Sphera é reconhecida por sua forte ênfase em gestão de riscos ambientais e de sustentabilidade. A escolha da solução adequada pode melhorar significativamente a visibilidade, mitigar riscos e fortalecer o desempenho dos fornecedores, tornando-se crucial para a competitividade das empresas no cenário atual.

A Inteligência Artificial e o Risco de Vazamento de Dados Corporativos

Um novo relatório da LayerX revela que a inteligência artificial (IA) se tornou o maior canal não controlado para a exfiltração de dados corporativos, superando ferramentas de SaaS não gerenciadas e compartilhamento de arquivos. Com 45% dos funcionários de empresas utilizando ferramentas de IA generativa, como ChatGPT, a falta de governança é alarmante, pois 67% do uso ocorre em contas pessoais não gerenciadas. O estudo aponta que 40% dos arquivos enviados para ferramentas de IA contêm dados sensíveis, e 77% dos funcionários colam informações nessas plataformas, com 82% dessas ações originando de contas não gerenciadas. A segurança tradicional, focada em uploads de arquivos, ignora esses vetores de vazamento. Além disso, 87% do uso de mensagens instantâneas ocorre em contas não gerenciadas, criando um cenário de risco elevado. O relatório recomenda que a segurança da IA seja tratada como uma categoria essencial, com estratégias de governança que incluam monitoramento de uploads e restrições a contas pessoais. Para os líderes de segurança, a urgência em adaptar as políticas de segurança é clara, pois a IA já está integrada aos fluxos de trabalho e representa um vetor principal para a perda de dados corporativos.

Google DeepMind lança agente de IA para corrigir vulnerabilidades de código

A divisão DeepMind do Google anunciou o lançamento do CodeMender, um agente de inteligência artificial (IA) que detecta, corrige e reescreve automaticamente códigos vulneráveis, visando prevenir futuras explorações. O CodeMender é projetado para ser tanto reativo quanto proativo, corrigindo novas vulnerabilidades assim que são identificadas e reforçando códigos existentes para eliminar classes inteiras de falhas. Nos últimos seis meses, a ferramenta já contribuiu com 72 correções de segurança para projetos de código aberto, incluindo alguns com até 4,5 milhões de linhas de código.

Gestão da Segurança em IA Perguntas Cruciais para Escolher Soluções

No contexto atual de rápida evolução da inteligência artificial (IA) e das tecnologias em nuvem, as organizações estão cada vez mais adotando medidas de segurança para proteger dados sensíveis e garantir conformidade regulatória. As soluções de AI-SPM (Gestão da Postura de Segurança em IA) têm se destacado como ferramentas essenciais para proteger pipelines de IA e ativos de dados. O artigo destaca cinco perguntas críticas que as empresas devem fazer ao avaliar soluções de AI-SPM. A primeira pergunta aborda a necessidade de visibilidade e controle abrangentes sobre os riscos associados à IA e aos dados. A segunda pergunta foca na capacidade da solução de identificar e remediar riscos específicos da IA, como ataques adversariais e viés em modelos preditivos. A conformidade regulatória é o tema da terceira pergunta, enfatizando a importância de garantir que as soluções atendam a normas como a LGPD e o GDPR. A escalabilidade em arquiteturas dinâmicas de nuvem é discutida na quarta pergunta, enquanto a integração com ferramentas de segurança existentes é abordada na quinta. O artigo conclui ressaltando que a segurança em IA deve ser proativa, permitindo que as organizações inovem com confiança em um ambiente de ameaças em constante evolução.

A IA está mudando a automação, mas nem sempre para melhor

A automação impulsionada pela inteligência artificial (IA) está transformando a forma como as organizações operam, mas não sem desafios significativos. O artigo destaca que a busca por automação total pode resultar em sistemas frágeis, onde a intervenção humana excessiva atrasa respostas e a rigidez das regras não se adapta a novas ameaças. Além disso, o uso excessivo de IA pode gerar processos obscuros que comprometem a confiança e a conformidade. Para líderes de cibersegurança e operações, a necessidade de fluxos de trabalho rápidos, confiáveis e auditáveis é crucial. O webinar ‘Workflow Clarity: Where AI Fits in Modern Automation’, apresentado por Thomas Kinsella, Co-fundador e Diretor de Clientes da Tines, abordará como as equipes de segurança estão integrando pessoas, regras e agentes de IA de forma intencional para criar fluxos de trabalho eficazes. Os participantes aprenderão a identificar onde a IA é mais útil, como evitar a complexidade desnecessária e garantir a segurança e a auditabilidade dos processos. O evento é voltado para líderes que buscam estratégias práticas para implementar automação que fortaleça as defesas sem criar novos riscos.

Malwares se disfarçam de ferramentas de IA para infectar empresas

Um estudo da Trend Micro revelou que malwares estão se disfarçando como ferramentas de inteligência artificial para infectar empresas em diversas regiões do mundo, incluindo Brasil, Estados Unidos, França e Índia. O malware mais destacado na pesquisa é o EvilAI, que imita softwares legítimos, dificultando a detecção por parte dos usuários. Os alvos principais incluem indústrias, agências governamentais e setores de saúde e tecnologia. Os hackers utilizam certificados válidos de empresas descartáveis para aumentar a credibilidade dos programas maliciosos. Uma vez instalados, esses malwares conseguem extrair dados sensíveis dos navegadores das vítimas e enviá-los para servidores controlados pelos criminosos. A distribuição ocorre por meio de anúncios falsos, sites de venda fraudulentos e manipulação de SEO. A situação é alarmante, pois a popularidade das ferramentas de IA está sendo explorada para enganar usuários, e a criação de mercados de malware na dark web facilita ainda mais esses ataques. Especialistas alertam que a tendência pode se intensificar, exigindo atenção redobrada das empresas em relação à segurança cibernética.