Você já deve ter visto algum vídeo que realmente pensou que era real, mas não era: os deepfakes estão cada vez mais convincentes e usuários comuns podem ser facilmente enganados. Isso pode afetar eleições, relacionamentos e até investigações policiais, colocando todos em risco.
Enquanto isso, afirma o TechXplore, especialistas alertam que a popularização da inteligência artificial (IA) e do aprendizado de máquina acelera fraudes digitais, manipulando fotos, vídeos e áudios com eficiência inédita.
Por que os deepfakes explodiram
Deepfakes usam aprendizado de máquina para criar ou alterar vídeos, imagens e áudios, gerando sequências que parecem reais. A técnica ganhou força quando comunidades online começaram a trocar rostos em vídeos pornográficos e evoluiu rapidamente desde então.
Segundo o Dr. Richard Nock, líder do grupo de aprendizado de máquina da Data61, “é preciso um sistema de aprendizado de máquina para processar todas essas sequências de vídeo, com a máquina eventualmente aprendendo quem é a pessoa, como ela é representada, como se move e evolui no vídeo”.
Hoje, a mesma técnica vale para fotos, áudios e até pinturas. Com o volume de selfies, stories e gravações compartilhadas nas redes sociais, criar uma falsificação convincente se torna mais simples para quem possui conhecimento técnico e recursos.
Quando qualquer pessoa pode virar vítima
Como grande parte das pessoas compartilha fotos, vídeos e áudios nas redes sociais, o terreno está pronto para manipulações. Filtros, como troca de gênero ou lentes de bebê, são usados por diversão, mas também servem de base para golpes sérios. O catfishing, por exemplo, já utiliza esses recursos para criar identidades falsas em apps de namoro.
Em um caso recente, um universitário de 20 anos se passou por uma adolescente usando um filtro e acabou ajudando a denunciar um homem que tentou marcar um encontro com a falsa identidade.
Políticos, celebridades e qualquer pessoa com forte presença nas redes viram alvos fáceis. Há até aplicativos que geram supostas fotos explícitas de mulheres a partir de simples selfies, algo que o Dr. Nock aponta como um dos usos mais abusivos da tecnologia.
Um problema que já influencia eleições
Deepfakes já interferem na opinião pública. O vídeo manipulado da política Nancy Pelosi, amplamente viralizado, mostra como falsificações podem distorcer debates e minar a confiança na mídia. Segundo o Dr. Nock, a perda de credibilidade leva usuários a migrar para grupos fechados, onde opiniões se reforçam e fatos perdem espaço.
Leia mais:
- Deepfakes impulsionadas por IA disparam 1.740% e tornam golpes praticamente imperceptíveis
- O truque de cinco minutos para descobrir deepfakes feitos por IA
- Itaú e MIT apresentam tecnologia para detectar deepfakes e ajudar a prevenir golpes
As pessoas não confiam nas informações públicas que possuem, mas confiam mais nas informações privadas que obtêm das redes sociais.
Dr. Richard Nock, líder do grupo de aprendizado de máquina da Data61, em nota
Como combater as deepfakes
O combate aos deepfakes avança em duas frentes. Tecnologias, como blockchain, podem reforçar a autenticação de arquivos, embora marcas d’água digitais sejam frágeis — qualquer alteração no arquivo original pode torná-las inúteis. Paralelamente, universidades, como UC Berkeley e USC, desenvolvem sistemas de detecção que identificam microexpressões e movimentos sutis, alcançando até 92% de precisão.
Entre as principais práticas de prevenção estão:
- Técnicas de IA que detectam microexpressões e movimentos faciais difíceis de falsificar;
- Sistemas de blockchain capazes de validar a autenticidade de vídeos e imagens;
- Estudos contínuos para acompanhar a evolução dos algoritmos de deepfake;
- A criação de parcerias entre governo, indústria e academia para enfrentar o problema.
Mesmo assim, criminosos continuam aprimorando suas ferramentas. E, à medida que o aprendizado de máquina avança rapidamente, o jogo de gato e rato também tende a acelerar.
O post Deepfakes ficaram assustadoramente reais — veja como isso ameaça você apareceu primeiro em Olhar Digital.