A moderação de conteúdo é o processo de triagem, avaliação e aplicação de regras sobre o que é publicado por usuários em plataformas digitais. O objetivo é impedir a propagação de conteúdos nocivos, como desinformação e discursos de ódio.
Num primeiro momento, este trabalho era feito por humanos. Com o avanço da tecnologia, ele passou a ser automatizado. E, em alguns casos, a inteligência artificial já assumiu este papel, embora os resultados não sejam os esperados.

Preocupações com o futuro dos ambientes virtuais
- Segundo reportagem da Bloomberg, a IA é vista como uma grande esperança para facilitar o trabalho de moderação de conteúdo.
- No entanto, profissionais da área alegam que a tecnologia ainda não se mostrou capaz de detectar de forma confiável publicações que violem as políticas das empresas de mídia social.
- Mesmo assim, as principais plataformas têm preferido substituir os humanos pela ferramenta.
- Este cenário gera preocupações de que o ambiente virtual se torne cada vez mais perigosos e impróprio para crianças, por exemplo.
- Enquanto isso, as gigantes da tecnologia dizem que é impossível contratar trabalhadores em número suficiente para dar conta da demanda.
- As discussões sobre o tema ganham ainda mais importância pelo fato de muitas redes sociais terem sido acusadas de não fazer o suficiente para remover conteúdos violentos, preconceituosos e até extremistas.
Leia mais
- Homem cai em golpe após IA indicar telefone falso
- Americanos temem que IA cause desemprego e caos político
- Fala AI: por que os brasileiros ainda não usam IA generativa?

IA está dando mais trabalho para os profissionais
Dos 13 moderadores com quem a Bloomberg conversou, todos, exceto um, disseram que as ferramentas de IA dificultam seu trabalho. A principal reclamação é que não se pode confiar nas sugestões da inteligência artificial. Eles estimam que a tecnologia falhe em cerca de 70% das avaliações feitas sobre conteúdos potencialmente impróprios.
Os profissionais temem que não importa o quão bem eles treinem a inteligência artificial, a ferramenta talvez nunca consiga captar as sutilezas da fala e do comportamento humanos. Em uma postagem em janeiro deste, a Meta disse que os sistemas automatizados da empresa “resultaram em muitos erros” e censura excessiva de conteúdos que não apresentavam qualquer tipo de problema.

Os computadores são muito bons em perguntas de sim ou não. Eles são menos bons em subjetividade, contexto cultural e gosto. O desenvolvimento do julgamento correto é um processo constante. As políticas da empresa mudam rapidamente dependendo dos regulamentos e climas políticos, as normas sociais evoluem e novas calúnias são constantemente inventadas. Os humanos evoluem sua linguagem mais rapidamente do que a IA pode detectá-la e entendê-la.
Mike Pappas, CEO da empresa de moderação de IA Modulate
Apesar dos alertas, as empresas do setor continuam aumentando o uso da IA para a função como foram de cortar custos. O TikTok recentemente demitiu centenas de funcionários da área e planeja realizar novo cortes. Já o X (antigo Twitter) afirmou que a tecnologia “pode ajudar a apoiar o bem-estar da equipe de moderação” e melhorar o serviço.
O post IA já assumiu a moderação de conteúdo, mas deixa a desejar no trabalho apareceu primeiro em Olhar Digital.