Home Variedade Teste mostra que plataformas falham em classificar conteúdos de IA

Teste mostra que plataformas falham em classificar conteúdos de IA

by Fesouza
7 minutes read

Um teste realizado pelo The Washington Post em oito grandes plataformas de redes sociais revelou que apenas uma delas indicou aos usuários que um vídeo enviado era falso, feito por uma inteligência artificial (IA).

O experimento buscava verificar se as empresas estavam cumprindo a promessa de adotar um padrão técnico desenvolvido pela indústria de tecnologia para identificar conteúdo gerado por IA. Segundo o levantamento, Facebook, TikTok e outras redes não utilizaram o sistema, considerado um mecanismo essencial para combater a desinformação.

O padrão em questão, chamado Credenciais de Conteúdo, foi criado por companhias, como Microsoft, Adobe e a BBC, em 2021. Ele adiciona metadados invioláveis a arquivos de mídia, revelando informações, como o equipamento usado para capturar o vídeo, o software utilizado na edição ou o sistema de IA que o gerou.

Pessoa teclando em notebook com diagrama de metadados pairando acima
Metadados são removidos pelas redes (Imagem: Miha Creative
/Shutterstock)

O objetivo é oferecer “vislumbre do histórico do conteúdo, acessível a qualquer pessoa, a qualquer momento”, segundo a Coalition for Content Provenance and Authenticity (C2PA), que administra o padrão e conta com centenas de membros, incluindo Google, Meta, Intel, Sony, Nikon, OpenAI e TikTok. Apesar disso, o sistema é de adesão voluntária.

Estudos conduzidos por Arosha Bandara, pesquisador da Open University do Reino Unido, e Dilrukshi Gamage, da Universidade de Colombo (Sri Lanka), mostraram que rotular conteúdo como gerado por IA ajuda o público a reconhecer que ele é falso.

O desafio, segundo o Bandara, é encontrar uma maneira segura de garantir essa rotulação. “O potencial distópico é que todo o conteúdo, todo vídeo ou fotografia, tenha de ser desconfiado até que possa ser positivamente autenticado como real”, afirmou.

Realizando o teste com a IA

  • O Post testou as plataformas enviando um vídeo gerado com o Sora, novo aplicativo de vídeo da OpenAI;
  • O arquivo continha os metadados do Credenciais de Conteúdo, com as expressões “Criado usando IA Generativa” e “publicado pela OpenAI”;
  • Nenhuma das oito plataformas manteve os metadados do vídeo ou permitiu que os usuários tivessem acesso a eles;
  • Apenas o YouTube, de propriedade do Google, exibiu algum aviso de que o vídeo não era real. O alerta, contudo, aparecia escondido na descrição do clipe e precisava ser aberto manualmente;
  • O texto dizia “Conteúdo alterado ou sintético”, sem mencionar o uso de IA;
  • Além disso, todas as plataformas testadas removeram o marcador digital do vídeo, impedindo que fosse inspecionado para verificar sua origem.

Comprometimento não cumprido

Grandes empresas de tecnologia, como Google, OpenAI e outras, comprometeram-se, durante o governo Joe Biden, a desenvolver sistemas que assegurem que os usuários saibam quando um conteúdo é gerado por IA. Entretanto, os resultados do teste mostram que a aplicação prática desses compromissos ainda é limitada.

A ausência de identificação clara preocupa especialistas. Para Bandara, os avanços recentes da IA deixaram o público “além do ponto de conseguir lidar com a escala e o realismo” dos conteúdos gerados por máquina. Ele defende um sistema robusto de divulgação.

Na Califórnia (EUA), uma lei assinada pelo governador Gavin Newsom obrigará, a partir do próximo ano, que grandes plataformas online tornem “disponíveis de forma visívelinformações que indiquem se um conteúdo foi alterado ou criado com IA.

Logo do YouTube em um smartphone
YouTube foi a única plataforma testada que avisou que o vídeo em questão era falso; ainda assim, o aviso estava escondido (Imagem: gguy/Shutterstock)

Leia mais:

Confira, a seguir, como cada plataforma se saiu no teste do Post:

Sora no centro do teste com IA

O Sora, cujo app foi lançado recentemente pela OpenAI, permite gerar clipes curtos que podem inserir a imagem de uma pessoa real em qualquer situação, e os usuários podem autorizar o uso de suas próprias imagens.

Em sua página “Lançamento responsável do Sora”, a empresa afirma incluir metadados do Credenciais de Conteúdo em todos os vídeos, chamando-os de “assinatura padrão da indústria”. Os testes do Post, no entanto, mostram que essa marcação não é mantida pelas plataformas.

A OpenAI também adiciona um logotipo transparente ou marca d’água aos clipes, mas indicou que essa medida pode ser removida no futuro.

Já existem serviços online que eliminam essas marcas e a versão do Sora para desenvolvedores não inclui nem a marca d’água, nem os metadados do Credenciais de Conteúdo. Usuários do plano profissional podem baixar vídeos sem marcações, conforme a própria documentação da empresa.

A OpenAI também informou ter criado marcadores invisíveis de autenticidade em seus vídeos, que poderiam ser detectados com alta precisão, mas essa ferramenta é de uso interno.

O projeto SynthID, do Google, funciona de forma semelhante, mas também não está disponível ao público. Enquanto isso, outras empresas oferecem sistemas para detectar manipulações com base em padrões visuais, mas eles têm se mostrado pouco confiáveis e ainda não foram amplamente adotados pelas redes sociais.

Logo do Sora
Testes foram realizados com o app do Sora, gerador de vídeos da OpenAI (Imagem: Koshiro K/Shutterstock)

O que dizem as citadas

Ao jornal, Christa Muldoon, porta-voz do Google, afirmou que o Credenciais de Conteúdo é apenas parte da estratégia da empresa para oferecer informações sobre como o conteúdo é criado. “Reconhecemos que a adoção levará tempo e esse trabalho está em andamento”, disse.

Meta, OpenAI, TikTok, Snapchat e X não responderam aos pedidos de comentário. LinkedIn e Pinterest recusaram comentar oficialmente. O jornal tem uma parceria de conteúdo com a OpenAI.

Andrew Jenks, presidente-executivo da coalizão que gerencia o padrão, afirmou em nota que os usuários precisam ter acesso à informação sobre como o conteúdo foi feito, “inclusive, quais ferramentas foram usadas”. Segundo ele, o setor deve continuar aprimorando suas abordagens para garantir que esse nível de transparência seja possível e eficaz.

O post Teste mostra que plataformas falham em classificar conteúdos de IA apareceu primeiro em Olhar Digital.

You may also like

Leave a Comment