Home Variedade Estudo mostra que mesmo ‘sem algoritmos’, bots de IA geram polarização e extremismo

Estudo mostra que mesmo ‘sem algoritmos’, bots de IA geram polarização e extremismo

by Fesouza
3 minutes read

Os chatbots de inteligência artificial generativa tendem a repetir o comportamento polarizado de humanos nas redes sociais mesmo em um ambiente sem influência de algoritmos. É o que concluiu um estudo feito pela Universidade de Amsterdã, na Holanda, publicado na última semana na plataforma arXiv.

No experimento, os autores criaram uma rede social formada exclusivamente por 500 bots de IA alimentados pelo modelo de linguagem GPT-4o mini da OpenAI. Cada um desses usuários virtuais recebeu uma persona específica com liberdade para interagir como quisesse na plataforma que, por sua vez, não tinha algoritmos recomendando conteúdos nem anúncios.

emojis-e-icones-de-reacoes-em-redes-sociais
No experimento, os bots foram incluídos em uma rede social desenvolvida especificamente para eles. (Imagem: Getty Images)

Quais foram as principais descobertas do estudo?

Instruídos a interagir entre si e com o conteúdo disponível na rede social fictícia, os bots foram envolvidos em mais de 10 mil ações sem qualquer mecanismo de recomendação de conteúdos. Eles começaram a se reunir em bolhas ideológicas, passando a seguir outros que apresentavam crenças políticas semelhantes.

  • Usuários que postavam conteúdos mais partidários obtinham uma maior quantidade de seguidores e conteúdos repostados;
  • Os pesquisadores holandeses ainda testaram diferentes soluções para combater a polarização, como ocultar métricas de popularidade, dar mais mais visão a pontos de vista opostos, desvalorizar conteúdos virais e mostrar um feed cronológico;
  • No entanto, essas intervenções não surtiram efeitos significativos, com a polarização mantida e até piorando em certos casos;
  • Ao testar a ocultação das biografias dos bots, por exemplo, os conteúdos extremos ganharam ainda mais atenção.

Vale destacar que o experimento objetivava, entre outras coisas, verificar se as redes sociais realmente contribuem para potencializar a polarização política e social, da qual são frequentemente acusadas. O papel do algoritmo e de outros fatores também foi analisado.

“Esses resultados sugerem que as principais disfunções podem estar enraizadas no feedback entre o engajamento reativo e o crescimento da rede, levantando a possibilidade de que uma reforma significativa exija repensar a dinâmica fundamental da arquitetura da plataforma”, escreveram os pesquisadores.

ilustracao-de-chatbot-de-ia
O comportamento dos bots na rede social foi idêntico ao dos humanos. (Imagem: Getty Images)

Espelhando as relações humanas

Conforme os responsáveis pelo estudo, os bots repetiram o comportamento humano provavelmente porque foram treinados a partir de dados que mostram décadas de interações em ambientes online dominados por algoritmos. O problema é que não ficou claro como escapar disso.

Eles também comentaram que, de modo geral, as redes sociais funcionam como uma espécie de espelho distorcido das relações humanas, ao contribuir para modificar a percepção que temos uns dos outros. Assim, essas plataformas acabariam reforçando os piores comportamentos.

Gostou do conteúdo? Continue acompanhando as últimas notícias no TecMundo e compartilhe-as com os amigos nas redes sociais.

You may also like

Leave a Comment