Privacidade De Dados

Discord implementará verificação de idade obrigatória em todo o mundo

O Discord anunciou que, a partir de março de 2026, implementará uma verificação de idade obrigatória para todos os usuários, tanto novos quanto existentes. As contas serão automaticamente configuradas para uma experiência voltada para adolescentes, restringindo o acesso a canais e servidores com conteúdo adulto. Para verificar a idade, o Discord utilizará um método de estimativa facial por inteligência artificial, que analisará um vídeo curto do usuário localmente, sem enviar dados para a nuvem. Além disso, será possível verificar a idade através do envio de documentos de identidade a parceiros do Discord, o que levanta preocupações sobre a privacidade dos dados, especialmente após uma violação de dados em 2025 que afetou 70 mil usuários. A empresa afirma que não armazenará informações pessoais e que o documento enviado será excluído imediatamente. O Discord também usará um sistema de inferência de idade que analisará metadados, como jogos jogados e horários de atividade, para identificar usuários adultos sem a necessidade de documentos. A empresa espera uma possível perda de usuários devido a essas novas políticas, mas está planejando estratégias para reter esses usuários. Essa mudança segue a tendência de regulamentação de segurança online, como a Lei de Segurança Online do Reino Unido, que exige a verificação de idade em plataformas digitais.

TikTok forma joint venture para operar nos EUA e garantir segurança de dados

Na última sexta-feira, 23 de janeiro de 2026, o TikTok anunciou a formação de uma joint venture chamada TikTok USDS Joint Venture LLC, permitindo que a popular plataforma de compartilhamento de vídeos continue suas operações nos Estados Unidos. A criação da joint venture está em conformidade com uma ordem executiva assinada pelo ex-presidente Donald Trump em setembro de 2025, que exigia que a empresa chinesa ByteDance, proprietária do TikTok, vendesse a maior parte de sua participação para investidores majoritariamente americanos, mantendo apenas 19,9% do negócio.

OpenAI começará a exibir anúncios no ChatGPT para usuários nos EUA

A OpenAI anunciou que começará a exibir anúncios no ChatGPT para usuários adultos logados nos Estados Unidos, tanto na versão gratuita quanto na versão ChatGPT Go, nas próximas semanas. A empresa garantiu que os dados e conversas dos usuários estão protegidos e não serão vendidos a anunciantes. A introdução de anúncios visa tornar os benefícios da inteligência artificial mais acessíveis e ajudar pequenas empresas a competir. Os anúncios aparecerão no final das conversas e serão claramente rotulados, sem influenciar as respostas do chatbot. Usuários em planos mais caros, como Plus e Pro, não verão anúncios. A OpenAI não especificou quais dados serão coletados para personalizar os anúncios, mas os usuários poderão entender o motivo pelo qual estão vendo determinados anúncios e poderão desativar a personalização. A decisão de incluir anúncios representa uma mudança significativa na estratégia da OpenAI, que até agora dependia principalmente de assinaturas. O CEO Sam Altman comentou que a empresa não aceitará dinheiro para influenciar as respostas do ChatGPT, enfatizando que a publicidade é uma alternativa para sustentar o alto custo do desenvolvimento da inteligência artificial.

Nova funcionalidade de IA promete melhorar a saúde dos usuários

A Anthropic lançou uma nova iniciativa chamada Claude for Healthcare, que permite aos usuários da plataforma Claude, nos EUA, acessar e entender melhor suas informações de saúde. Os assinantes dos planos Claude Pro e Max podem conectar seus resultados de exames e registros médicos através das integrações com HealthEx e Function, com suporte para Apple Health e Android Health Connect previsto para ser lançado em breve. A ferramenta é capaz de resumir o histórico médico dos usuários, explicar resultados de exames em linguagem simples, detectar padrões em métricas de saúde e preparar perguntas para consultas médicas. A Anthropic enfatiza que as integrações são projetadas para serem privadas, permitindo que os usuários escolham quais informações compartilhar e que os dados de saúde não são utilizados para treinar modelos de IA. Este desenvolvimento ocorre em um contexto de crescente preocupação sobre a precisão das informações de saúde fornecidas por sistemas de IA, especialmente após a remoção de resumos de IA do Google que apresentavam informações incorretas. A Anthropic também ressalta que os resultados gerados devem ser revisados por profissionais qualificados antes de qualquer decisão de saúde.

Vulnerabilidades no assistente de IA Gemini expõem riscos de privacidade

Pesquisadores de cibersegurança revelaram três vulnerabilidades críticas no assistente de inteligência artificial Gemini do Google, que, se exploradas, poderiam comprometer a privacidade dos usuários e permitir o roubo de dados. As falhas, coletivamente chamadas de ‘Gemini Trifecta’, incluem: uma injeção de prompt no Gemini Cloud Assist, que poderia permitir que atacantes manipulassem serviços em nuvem; uma injeção de busca no modelo de Personalização de Busca do Gemini, que poderia vazar informações salvas e dados de localização ao manipular o histórico de busca do Chrome; e uma falha de injeção indireta no Gemini Browsing Tool, que poderia exfiltrar dados do usuário para servidores externos. Após a divulgação responsável, o Google implementou medidas de segurança, como a interrupção da renderização de hyperlinks nas respostas de resumo de logs. A Tenable, empresa de segurança, destacou que a situação evidencia que a IA pode ser utilizada como veículo de ataque, não apenas como alvo, enfatizando a necessidade de visibilidade e controle rigoroso sobre ferramentas de IA em ambientes corporativos.

França multa Google e Shein por violação de regras de cookies

A Comissão Nacional de Informática e Liberdade (CNIL) da França impôs multas significativas a Google e Shein por violarem as regras de consentimento de cookies. Google foi multada em €325 milhões (cerca de R$ 379 milhões) e Shein em €150 milhões (aproximadamente R$ 175 milhões) por instalar cookies de publicidade nos navegadores dos usuários sem obter consentimento adequado. A CNIL destacou que, ao criar uma conta no Google, os usuários eram incentivados a aceitar cookies para anúncios personalizados, sem serem devidamente informados de que essa aceitação era uma condição para acessar os serviços da empresa. Embora Google tenha introduzido uma opção de recusa de cookies em outubro de 2023, a falta de consentimento informado ainda persistiu. Além disso, a CNIL criticou a prática do Google de exibir anúncios em e-mails do Gmail sem o consentimento explícito dos usuários, o que também contraria o Código Postal e de Comunicações Eletrônicas da França. A CNIL deu um prazo de seis meses para que o Google se adeque às normas, sob pena de multas diárias de €100 mil. O caso ocorre em um contexto mais amplo de crescente vigilância sobre a privacidade dos dados, com ações semelhantes sendo tomadas contra outras empresas, como a Disney nos EUA, por violações de privacidade infantil.

A Dura Realidade da Adoção de IA nas Empresas

Um relatório do MIT revelou que 40% das organizações adquiriram assinaturas de LLMs empresariais, mas mais de 90% dos funcionários utilizam ferramentas de IA no dia a dia. A pesquisa da Harmonic Security indica que 45,4% das interações sensíveis com IA ocorrem em contas de e-mail pessoais, o que levanta preocupações sobre a chamada ‘Economia de IA Sombra’. Essa situação ocorre porque a adoção de IA é impulsionada pelos funcionários, e não por diretrizes corporativas. Muitas empresas tentam bloquear o acesso a plataformas de IA, mas essa estratégia falha, pois a IA está integrada em quase todos os aplicativos SaaS. Para mitigar riscos, as equipes de segurança precisam entender e governar o uso de IA, tanto em contas autorizadas quanto não autorizadas. A descoberta da IA Sombra é essencial para manter a conformidade regulatória e proteger dados sensíveis. A Harmonic Security oferece soluções para monitorar o uso de IA e aplicar políticas de governança adequadas, permitindo que as empresas se beneficiem da produtividade da IA, enquanto protegem suas informações.

Google exigirá verificação de desenvolvedores de apps Android

O Google anunciou que começará a verificar a identidade de todos os desenvolvedores que distribuem aplicativos no Android, incluindo aqueles que o fazem fora da Play Store. A medida visa aumentar a responsabilidade e dificultar a distribuição de aplicativos maliciosos. A partir de outubro de 2025, convites para a verificação serão enviados gradualmente, com a implementação total prevista para setembro de 2026 em países como Brasil, Indonésia, Cingapura e Tailândia. A vice-presidente do Android, Suzanne Frey, destacou que todos os aplicativos instalados em dispositivos Android certificados nessas regiões precisarão ser registrados por desenvolvedores verificados. Embora os desenvolvedores que já utilizam a Play Store não enfrentem grandes mudanças, a nova exigência busca impedir que atores maliciosos se façam passar por desenvolvedores legítimos. Além disso, a Google já havia implementado outras medidas de segurança, como a exigência de um número D-U-N-S para novos registros de contas de desenvolvedores organizacionais. Essas mudanças visam proteger os usuários de malware e fraudes, mantendo a escolha do usuário enquanto reforçam a segurança do ecossistema Android.

Governo do Reino Unido desiste de exigir backdoor da Apple

O governo do Reino Unido abandonou suas tentativas de forçar a Apple a enfraquecer suas proteções de criptografia, que incluiriam a implementação de um backdoor para acesso a dados criptografados de cidadãos americanos. A decisão foi anunciada pela Diretora de Inteligência Nacional dos EUA, Tulsi Gabbard, que destacou a importância da proteção das liberdades civis dos americanos. A Apple havia desativado sua funcionalidade de Proteção Avançada de Dados (ADP) para iCloud no Reino Unido em fevereiro de 2025, em resposta a exigências governamentais por acesso a dados criptografados. A empresa reiterou que nunca construiu um backdoor para seus produtos e serviços. A ordem secreta que exigia a implementação do backdoor foi emitida pelo Ministério do Interior do Reino Unido sob a Lei de Poderes de Investigação, visando acesso irrestrito a dados criptografados, incluindo backups. Críticos alertaram que tal acesso poderia ser explorado por cibercriminosos e governos autoritários. Enquanto isso, o Google e a Meta afirmaram não terem recebido solicitações semelhantes do governo britânico. A situação destaca a tensão entre segurança digital e privacidade, especialmente em um contexto de crescente preocupação com violações de dados e privacidade do consumidor.