Um documento interno da Meta, obtido e analisado pela Reuters, revela que diretrizes aprovadas pelas áreas jurídica, de políticas públicas e engenharia — incluindo o diretor de ética da empresa — permitiam que chatbots de IA mantivessem conversas românticas ou sensuais com crianças, gerassem informações falsas e até criassem argumentos racistas.
As regras, intituladas “GenAI: Padrões de Risco de Conteúdo”, definiam comportamentos aceitáveis para a Meta AI e bots no Facebook, Instagram e WhatsApp.
Leia mais:
- Nada será como antes: o impacto real da IA em nossas vidas
- Como evitar o mal da IA degenerativa?
- O que é superinteligência artificial? Veja como ela pode mudar o futuro da humanidade
Conteúdos graves que a IA da Meta aceitava criar:
- Entre os exemplos, o documento aceitava descrever a “atratividade” de crianças e fazer elogios de conotação íntima, embora proibisse termos explicitamente sexuais para menores de 13 anos.
- Após questionamentos da Reuters, a Meta removeu esses trechos e afirmou que tais conversas “nunca deveriam ter sido permitidas”.
- O documento também registrava exceções que autorizavam a IA a criar conteúdo depreciativo com base em raça — como argumentar que negros seriam “mais burros” que brancos —, além de gerar informações médicas falsas, desde que indicadas como tal.
Figuras públicas foram alvo de conteúdo ofensivo
As diretrizes abordavam ainda imagens de figuras públicas, violência e nudez, incluindo exemplos inusitados como substituir pedidos sexuais envolvendo Taylor Swift por uma foto da cantora segurando um peixe.
Sobre violência, permitiam retratar adultos e até idosos sendo agredidos, mas proibiam imagens com morte ou sangue.
Especialistas como Evelyn Douek, da Universidade de Stanford, alertam que as regras expõem dilemas éticos e legais ainda sem resposta, sobretudo quando a própria plataforma produz conteúdo potencialmente nocivo.
O post Meta AI: documento interno expõe brechas para conteúdo sexual e racista apareceu primeiro em Olhar Digital.