Mulheres de comunidades rurais da Índia estão entre as principais responsáveis por um trabalho central para o avanço da inteligência artificial (IA): a moderação e classificação de conteúdos violentos, abusivos e pornográficos usados para treinar algoritmos de grandes empresas de tecnologia. A atividade, descrita em uma reportagem do The Guardian, envolve a exposição diária a material extremo e tem sido associada a impactos psicológicos duradouros.
Segundo a apuração, essas trabalhadoras atuam de forma remota, muitas vezes a partir de vilarejos em estados como Jharkhand e Uttar Pradesh, classificando imagens, vídeos e textos sinalizados por sistemas automatizados. O objetivo é ensinar as plataformas a identificar violações de regras relacionadas a violência, abuso e exploração. O trabalho é parte essencial dos sistemas de aprendizado de máquina, que dependem de grandes volumes de dados rotulados por humanos.
A investigação do The Guardian aponta que, em um único dia, uma moderadora pode analisar centenas de conteúdos sensíveis. Pesquisadores ouvidos pelo jornal afirmam que essa exposição contínua costuma provocar estresse traumático, ansiedade, distúrbios do sono e alterações emocionais persistentes, mesmo quando há algum tipo de suporte oferecido pelas empresas.

Evidências de danos psicológicos persistentes pela exposição a conteúdo abusivo
O The Guardian cita um estudo publicado em dezembro, que incluiu moderadores de conteúdo na Índia, no qual o estresse traumático foi identificado como o risco psicológico mais pronunciado da atividade. De acordo com a pesquisa, mesmo em locais onde havia algum tipo de intervenção no ambiente de trabalho ou suporte institucional, níveis significativos de trauma secundário continuaram presentes entre os trabalhadores.
Além disso, pesquisadores apontam que o entorpecimento emocional, seguido por efeitos psicológicos tardios, é uma característica recorrente da moderação de conteúdo. Entre os impactos relatados em estudos acadêmicos estão pensamentos intrusivos, ansiedade, alterações de comportamento e distúrbios do sono, que podem persistir mesmo após o fim do vínculo profissional.

Dados da associação indiana de tecnologia Nasscom indicam que cerca de 70 mil pessoas atuavam com anotação de dados no país em 2021, um mercado avaliado em aproximadamente US$ 250 milhões naquele ano. Cerca de 60% da receita vinha dos Estados Unidos, enquanto apenas 10% tinha origem no mercado indiano.
Leia mais:
- O que as redes sociais podem (e não podem) ler nas suas conversas privadas?
- Seu rosto, CPF e currículo podem estar alimentando IAs; entenda
- O ChatGPT está nos deixando estúpidos?
Contratos vagos e falta de proteção legal
A reportagem do The Guardian também descreve que muitas vagas são anunciadas com descrições genéricas, sem deixar claro o tipo de conteúdo a ser analisado. Em alguns casos, as tarefas mudam após a contratação, incluindo a moderação de material sexual explícito ou envolvendo abuso infantil, sem aviso prévio.
Outro ponto levantado é a ausência de reconhecimento legal dos danos psicológicos nas leis trabalhistas indianas, o que dificulta o acesso a proteções formais. Entre as empresas ouvidas pelo jornal, apenas duas afirmaram oferecer apoio psicológico estruturado; as demais argumentaram que o trabalho não exigiria esse tipo de cuidado.
Além disso, cláusulas rígidas de confidencialidade impedem que as trabalhadoras compartilhem suas experiências, inclusive com familiares. Segundo o The Guardian, o medo do desemprego e a escassez de alternativas profissionais levam muitas delas a permanecer no cargo, mesmo diante do sofrimento mental.
O post Mulheres na Índia passam horas analisando conteúdo abusivo para treinar IA apareceu primeiro em Olhar Digital.
