Um novo estudo mostrou que a inteligência artificial já é capaz de criar imagens de pessoas reais praticamente idênticas a fotografias verdades.
A pesquisa, conduzida por universidades do Reino Unido e de Israel, acende o alerta sobre o avanço dos “deepfakes” e o impacto na confiança do público em imagens digitais.

IA e o realismo que engana até os olhos treinados
Pesquisadores da Universidade de Swansea, Universidade de Lincoln e Universidade Ariel, em Israel, utilizaram os modelos ChatGPT e DALL-E para gerar retratos sintéticos de pessoas famosas e fictícias. O resultado foi surpreendente: mesmo indivíduos que conheciam bem os rostos retratados tiveram dificuldade em distinguir o que era real do que era criação da IA.
Em quatro experimentos, adicionar fotos de comparação ou confiar na familiaridade dos participantes pouco ajudou.
Estudos mostraram que imagens de rostos de pessoas fictícias geradas por IA são indistinguíveis de fotografias reais. Mas, para esta pesquisa, fomos além, gerando imagens sintéticas de pessoas reais.
Jeremy Tree, da Escola de Psicologia, em comunicado

Como foram feitos os testes
Um dos experimentos reuniu voluntários de diferentes países, como Estados Unidos, Canadá, Reino Unido, Austrália e Nova Zelândia. Eles receberam uma série de imagens, entre reais e geradas por IA, e precisavam identificar quais eram autênticas. A maioria errou.
Em outro teste, os participantes tiveram de diferenciar fotos verdadeiras de estrelas de Hollywood, com Paul Rudd e Olivia Wilde, das versões criadas por computador. Mais uma vez, o nível de confusão foi alto, provando o poder das novas ferramentas visuais.

Riscos e possibilidades do novo “realismo deepfakes”
A capacidade da IA de gerar imagens de pessoais reais traz tanto oportunidades quanto perigos. A mesma tecnologia usada para criar arte ou aprimorar efeitos visuais pode ser usada para manipular a opinião pública.
Alguns exemplos preocupantes incluem:
- Criação de imagens falsas de celebridades apoiando produtos ou políticos;
- Difusão de campanhas de desinformação com fotos aparentemente verdadeiras;
- Dificuldade crescente de verificar a autenticidade de registros visuais;
- Impacto na credibilidade da mídia e nas investigações jornalísticas.
O professor Tree alerta que “a familiaridade com um rosto ou o uso de imagens de referências não ajudaram muito na identificação das falsificações. É por isso que precisamos urgentemente encontrar novas maneiras de detectá-las”.
Leia mais:
- Sora: app de IA viraliza com vídeos hiper-realistas e acende alerta global
- OpenAI suspende deepfakes de Martin Luther King Jr. após pedido da família
- Após pressão de ator de Breaking Bad, OpenAI vai combater deepfakes no Sora 2
Enquanto sistemas automatizados de detecção ainda estão em desenvolvimento, a responsabilidade de identificar falsificações recai, por enquanto, sobre os usuários. A recomendação dos pesquisadores é adotar uma postura mais crítica diante de imagens “perfeitas” demais.
O post Olhe de novo: você saberia dizer se essa foto é real ou feita por IA? apareceu primeiro em Olhar Digital.
