Home Variedade Por que IAs simpáticas são menos eficazes, segundo pesquisadores

Por que IAs simpáticas são menos eficazes, segundo pesquisadores

by Fesouza
5 minutes read

A presença de sistemas de inteligência artificial (IA) com linguagem cada vez mais próxima da humana levanta uma questão central para desenvolvedores e usuários: ser mais “amigável” realmente torna a IA mais influente? Um novo estudo do Georgia Institute of Technology indica que a resposta pode ser não, especialmente quando o objetivo é garantir obediência ou segurança.

A pesquisa aponta que, embora agentes de IA com tom mais humano sejam melhor avaliados em termos de simpatia, usuários tendem a seguir mais as orientações de sistemas que soam robóticos. O achado contraria parte da literatura anterior sobre influência social e traz implicações diretas para áreas em que a cooperação humana é essencial, como veículos autônomos e sistemas assistivos.

Mão de robô
(Imagem: Summit Art Creations / Shutterstock.com)

IA simpática não é sinônimo de obediência

O estudo foi conduzido por Sidney Scott-Sharoni, que concluiu recentemente seu doutorado na School of Psychology do Georgia Tech. Ao longo de quatro experimentos, ela investigou como diferentes estilos de comunicação de agentes artificiais afetam o comportamento humano.

No primeiro teste, participantes respondiam a perguntas de trivia, viam a resposta sugerida por uma IA e decidiam se mudariam sua escolha. A expectativa era que agentes mais humanizados influenciassem mais as decisões. O resultado foi o oposto. Quanto mais humano o agente era percebido, menor era a chance de o participante alterar sua resposta.

Segundo Scott-Sharoni, embora os agentes humanizados tenham recebido avaliações mais positivas, isso não se refletiu em maior conformidade. “As pessoas gostaram mais desses agentes, mas isso não se traduziu em comportamento”, afirmou a pesquisadora.

Julgamentos morais e confiança em máquinas

O padrão se repetiu em um segundo experimento, focado em julgamentos morais. Os participantes precisavam decidir, por exemplo, como agir ao perceber que foram cobrados a menos em um restaurante, após ouvir a orientação de um agente de voz com características humanas ou robóticas.

Mais uma vez, o agente com tom robótico foi mais seguido, mesmo sendo considerado menos simpático. A recorrência do resultado levou a pesquisadora a investigar os motivos por trás dessa diferença entre avaliação subjetiva e comportamento prático.

agente de IA
Confiança é maior em agentes de IA com tons mais robóticos (Imagem: Stock-Asso / Shutterstock.com)

Viés de automação explica o comportamento

Os dados apontam para o chamado viés de automação, tendência humana de enxergar máquinas como mais objetivas e imparciais do que pessoas. Em um terceiro experimento, baseado no dilema do prisioneiro, os participantes jogaram contra um agente de IA e precisavam decidir entre cooperar ou retaliar.

Quando interagiam com agentes mais humanizados, os participantes passaram a cooperar menos ao longo do tempo, especialmente após falhas de cooperação do sistema. Já com agentes robóticos, o nível de cooperação se manteve mais estável, indicando maior tolerância e confiança na neutralidade da máquina.

Simulação de carro autônomo reforça alerta

O quarto e último experimento envolveu uma simulação de carro autônomo, considerada a situação mais próxima de um cenário real de risco. Nesse caso, os participantes não obedeceram de forma consistente a nenhum dos dois tipos de agentes, mas, novamente, os sistemas com comunicação mais humana se mostraram menos eficazes em influenciar o comportamento.

O conjunto dos experimentos reforça a ideia de que, em contextos onde segurança e conformidade são fundamentais, a humanização excessiva da IA pode ser um obstáculo.

Carros autônomos
No carro de carros autônomos, a resposta foi inconstante nos dois tipos de agentes (Imagem: temp-64GTX / Shutterstock.com)

Leia mais:

Impactos para o design de sistemas de IA

Para os pesquisadores, os resultados trazem um alerta claro para engenheiros e designers. Atender às preferências do usuário nem sempre significa criar sistemas mais eficazes ou seguros. A escolha do tom e da personalidade da IA deve considerar o papel que ela desempenha na interação com humanos.

Bruce Walker, professor de psicologia e computação interativa no Georgia Tech e orientador de Scott-Sharoni, destaca que muitas pessoas desenvolvem relações de confiança com agentes artificiais. Para ele, compreender como a IA se insere no tecido social é essencial para criar sistemas que realmente melhorem a atuação humana. Ele afirma que o trabalho de Scott-Sharoni contribui de forma relevante para esse entendimento, especialmente em aplicações críticas.

O post Por que IAs simpáticas são menos eficazes, segundo pesquisadores apareceu primeiro em Olhar Digital.

You may also like

Leave a Comment