<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Shadow Ai on BR Defense Center</title><link>https://brdefense.center/tags/shadow-ai/</link><description>Recent content in Shadow Ai on BR Defense Center</description><generator>Hugo</generator><language>pt-br</language><lastBuildDate>Thu, 09 Apr 2026 13:55:18 -0300</lastBuildDate><atom:link href="https://brdefense.center/tags/shadow-ai/index.xml" rel="self" type="application/rss+xml"/><item><title>A Ameaça do Shadow AI nas Organizações</title><link>https://brdefense.center/news/a-ameaca-do-shadow-ai-nas-organizacoes/</link><pubDate>Thu, 09 Apr 2026 13:55:18 -0300</pubDate><guid>https://brdefense.center/news/a-ameaca-do-shadow-ai-nas-organizacoes/</guid><description>&lt;p>O uso de ferramentas de inteligência artificial (IA) sem a aprovação formal das equipes de TI e segurança está se tornando uma prática comum nas organizações, resultando em um fenômeno conhecido como shadow AI. Embora essas ferramentas possam aumentar a produtividade, elas operam fora da visibilidade das equipes de segurança, criando novos riscos, como exposição não controlada de dados e superfícies de ataque ampliadas. Um estudo da Salesforce de 2024 revelou que 55% dos funcionários utilizam ferramentas de IA não aprovadas, o que pode levar ao compartilhamento inadvertido de dados sensíveis. Além disso, a integração de APIs de IA sem revisão de segurança pode expor dados internos e criar vetores de ataque que as equipes de segurança não conseguem monitorar. Para mitigar esses riscos, as organizações devem estabelecer políticas claras de uso de IA, oferecer alternativas aprovadas, melhorar a visibilidade do uso de IA e educar os funcionários sobre os riscos de segurança associados. A gestão eficaz do shadow AI pode proporcionar maior controle sobre o uso de IA, reduzir a exposição regulatória e facilitar a adoção segura de ferramentas de IA.&lt;/p></description></item></channel></rss>