A popularização e o fácil acesso às ferramentas de inteligência artificial estão tornando simples a criação de dublês de vozes. Essas vozes falsas podem imitar a fala de pessoas próximas, como familiares e amigos, além de figuras públicas. Neste artigo, vamos discutir o quão vulneráveis estamos e como se proteger. As informações são do The Washington Post.
Nos Estados Unidos, o ex-agente da lei e oficial de inteligência Dan Woods criou uma forma simples de ter certeza de que são realmente as filhas que se comunicam com ele. Eles criaram uma palavra-código para ser usada quando elas precisarem de ajuda. Assim, o pai pode saber que são de fato elas — e não um impostor fingindo um sequestro ou outra emergência para extorquir dinheiro.
Será que esse protocolo deve ser seguido por todos? Veja algumas dicas de como se proteger.

(Imagem: fadfebrian/Shutterstock)
Como se proteger?
Os golpes em que criminosos usam dublês de voz para se passar por familiares são “tecnicamente simples”, geralmente são ligações ou mensagens. O medo é o que torna o golpe eficaz, não a tecnologia em si. Por isso, essas dicas podem ajudar:
- Crie uma frase, pergunta ou padrão que só seus entes queridos saberiam. Algo que um criminoso com IA não conseguiria adivinhar.
- Se alguém entrar em contato dizendo que um ente querido está em perigo, peça a palavra-código para confirmar se é realmente ele.
- Sempre desconfie. O ceticismo pode ser a melhor defesa contra os golpes.
- Tente entrar em contato diretamente com a pessoa ou com outro familiar.
- Nunca envie dinheiro após uma ligação ameaçadora.
- Não confie no identificador de chamadas. Criminosos podem falsificar números para parecer que a ligação vem de um parente ou da polícia.
Essas últimas dicas também são úteis caso seu ente querido esqueça a palavra-código em uma emergência real. Em entrevista para o The Washington Post, a presidente do Centro de Recursos contra Roubo de Identidade (Identity Theft Resource Center) afirmou:
A coisa mais importante é não reagir de forma exagerada. Lembrar da frase ‘vá direto à fonte’ é uma forma simples de garantir que você verifique qualquer informação antes de agir.
Eva Velasquez, presidente do ITRC

(Imagem: MMD Creative/Shutterstock)
Leia mais:
- Fraude com biometria facial atinge aposentados no Brasil
- Como grupos terroristas estão usando a IA
- EUA: Trump avisa Lula que vai investigar ações do Brasil contra big techs
Essa responsabilidade deveria ser só sua?
Nos Estados Unidos, a Comissão Federal de Comércio identificou que golpes de impostores foram o tipo de fraude mais relatado no país no ano passado. A maioria envolve alguém se passando por uma empresa ou órgão oficial, como a Previdência Social ou uma companhia de energia, para exigir dinheiro ou dados pessoais.

(Imagem: tete_escape/Shutterstock)
Aqui no Brasil, esses tipos de golpes também são comuns, o que gera um debate sobre a responsabilidade. Para que a responsabilidade não recaia apenas sobre os ombros da população, é necessário pensar em regulamentações mais rígidas que garantam a segurança das pessoas.
Um guia de políticas do Consumer Reports sugere que a ferramenta de clonagem de voz não deveria estar disponível ao público.
O post Como proteger sua família de golpes com vozes clonadas por inteligência artificial apareceu primeiro em Olhar Digital.