YouTube é criticado por política de biometria em ferramenta anti-deepfake

O YouTube enfrenta questionamentos de especialistas após a revelação de que sua ferramenta de “detecção de semelhança”, criada para ajudar criadores a remover deepfakes, está vinculada à Política de Privacidade do Google — que permite o uso de conteúdo biométrico público para treinar modelos de IA.

A empresa afirmou para a CNBC que nunca usou esse tipo de dado para treinar sistemas e que revisará a linguagem do programa, mas não alterará sua política central.

Nova ferramenta do YouTube contra deepfakes reacende debate sobre privacidade (Imagem: JRdes/Shutterstock)

Ferramenta cresce enquanto preocupações aumentam

  • Lançada em outubro, a ferramenta identifica quando o rosto de um criador aparece de forma manipulada em vídeos enviados à plataforma.
  • Para utilizá-la, o YouTube exige documento oficial e um vídeo biométrico. A companhia diz que esses dados servem exclusivamente para verificação de identidade e funcionamento do recurso.
  • Até janeiro, mais de 3 milhões de criadores do Programa de Parcerias terão acesso ao sistema.

Especialistas, porém, alertam que a vinculação com a política de privacidade abre brechas para o uso futuro dos dados. Empresas que atuam na proteção de imagem, como Vermillio e Loti, afirmam que não recomendam a adesão ao serviço.

Para elas, a imagem dos criadores tornou-se um ativo estratégico em um momento em que vídeos gerados por IA se popularizam rapidamente.

YouTube tenta equilibrar combate a deepfakes e privacidade, mas preocupa especialistas (Imagem: FAMILY STOCK/Shutterstock)

Leia mais:

Criadores relatam uso indevido e pedem mais proteção

O médico e influenciador Mikhail Varshavski, o “Doctor Mike”, relata encontrar semanalmente deepfakes usando sua voz e rosto em anúncios falsos. Ele afirma que o risco cresce à medida que modelos como o Sora, da OpenAI, e o Veo 3, do Google, tornam mais fácil copiar pessoas públicas.

O YouTube diz estudar formas de monetização futura para usos não autorizados de imagem, mas ainda não apresentou prazos ou propostas concretas.

YouTube diz que não usa dados faciais para treinar modelos (Imagem: Mijansk786/Shutterstock)

O post YouTube é criticado por política de biometria em ferramenta anti-deepfake apareceu primeiro em Olhar Digital.

Related posts

Apple contrata chefe de IA do Gemini para salvar Siri

Galaxy S24 Ultra, Smart TV Philco e mais com até 70% OFF Pix Day do Mercado Livre; aproveite

Microsoft lança mais um suéter feio e nostálgico para o Natal