Tecnologia de reconhecimento facial não está pronta para uso policial

Pesquisadores da Universidade de Oxford alertam sobre as falhas da tecnologia de reconhecimento facial utilizada por forças policiais em diversos países, como Estados Unidos e Reino Unido. A pesquisa destaca que as condições reais de identificação são muito mais complexas do que as simuladas em ambientes laboratoriais, resultando em prisões injustas de indivíduos inocentes. A Avaliação de Tecnologia de Reconhecimento Facial (FRTE) do Instituto Nacional de Padrões e Tecnologia (NIST) é frequentemente utilizada para justificar o uso dessa tecnologia, mas apresenta limitações significativas, como a falta de representatividade demográfica nos bancos de dados e a incapacidade de lidar com imagens de baixa qualidade. Estudos demonstram que, embora os modelos de reconhecimento facial possam apresentar uma precisão de até 99,95% em condições ideais, essa taxa cai drasticamente em situações do mundo real. Além disso, a tecnologia tende a falhar desproporcionalmente em relação a grupos marginalizados. Os pesquisadores concluem que a tecnologia ainda é muito falha para ser utilizada de forma segura por agências policiais e recomendam uma revisão das políticas de direitos civis relacionadas ao seu uso.

Fonte: https://canaltech.com.br/seguranca/tecnologia-de-reconhecimento-facial-nao-esta-pronta-para-as-ruas-dizem-estudos/

⚠️
BR DEFENSE CENTER: SECURITY BRIEFING
20/08/2025 • Risco: ALTO
TECNOLOGIA

Tecnologia de reconhecimento facial não está pronta para uso policial

RESUMO EXECUTIVO
O uso inadequado de tecnologias de reconhecimento facial pode resultar em consequências legais e financeiras significativas para organizações que não implementam políticas de direitos civis adequadas. A falta de precisão em condições reais e a identificação errônea de indivíduos, especialmente de grupos marginalizados, são preocupações centrais que devem ser abordadas.

💼 IMPACTO DE NEGÓCIO

Financeiro
Custos associados a processos legais e danos à reputação.
Operacional
Prisão injusta de indivíduos e identificação errônea em casos de crimes.
Setores vulneráveis
['Setor público', 'Segurança', 'Tecnologia']

📊 INDICADORES CHAVE

99,95% de precisão em condições laboratoriais Indicador
Identificação correta de apenas 8 em 42 faces em testes Contexto BR
Sete casos de acusações falsas envolvendo pessoas pretas identificados em 2024 Urgência

⚡ AÇÕES IMEDIATAS

1 Revisar políticas de uso de reconhecimento facial e garantir conformidade com a LGPD.
2 Implementar treinamentos para agentes sobre as limitações da tecnologia.
3 Acompanhar casos de identificação errônea e suas consequências legais.

🇧🇷 RELEVÂNCIA BRASIL

CISOs devem se preocupar com a utilização de tecnologias que podem levar a erros de identificação e violação de direitos civis, impactando a reputação e a conformidade legal das organizações.

⚖️ COMPLIANCE

Implicações legais e de compliance com a LGPD no uso de reconhecimento facial.
Status
investigacao
Verificação
alta
BR Defense Center

Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).