Ferramentas de detecção estão ficando para trás na corrida contra deepfakes
Deepfakes, vídeos e imagens manipuladas por inteligência artificial, estão se tornando cada vez mais difíceis de serem detectados, tanto pelo olho humano quanto por ferramentas tecnológicas. Uma análise recente do PC World revelou que muitas plataformas de segurança falham em identificar conteúdos gerados por IA, permitindo que deepfakes de alta qualidade passem despercebidos. Um exemplo notável é um vídeo no TikTok, onde uma mulher demonstra um produto, mas apresenta movimentos faciais estranhos, que levantaram suspeitas. Ferramentas como o deepfakedetector.ai forneceram estimativas de 5% a 24% de probabilidade de que o vídeo fosse um deepfake, enquanto o Hive Moderation conseguiu identificar corretamente o conteúdo como gerado por IA. Para evitar cair em golpes relacionados a deepfakes, é essencial manter um ceticismo saudável e prestar atenção a detalhes como sincronia labial e movimentos faciais. Além disso, recomenda-se o uso de buscas reversas de imagens para verificar a autenticidade de produtos e perfis. Com a evolução das deepfakes, a necessidade de ferramentas de detecção mais eficazes e a conscientização do público se tornam cada vez mais urgentes.
