A presença de sistemas de inteligência artificial (IA) com linguagem cada vez mais próxima da humana levanta uma questão central para desenvolvedores e usuários: ser mais “amigável” realmente torna a IA mais influente? Um novo estudo do Georgia Institute of Technology indica que a resposta pode ser não, especialmente quando o objetivo é garantir obediência ou segurança.
A pesquisa aponta que, embora agentes de IA com tom mais humano sejam melhor avaliados em termos de simpatia, usuários tendem a seguir mais as orientações de sistemas que soam robóticos. O achado contraria parte da literatura anterior sobre influência social e traz implicações diretas para áreas em que a cooperação humana é essencial, como veículos autônomos e sistemas assistivos.

IA simpática não é sinônimo de obediência
O estudo foi conduzido por Sidney Scott-Sharoni, que concluiu recentemente seu doutorado na School of Psychology do Georgia Tech. Ao longo de quatro experimentos, ela investigou como diferentes estilos de comunicação de agentes artificiais afetam o comportamento humano.
No primeiro teste, participantes respondiam a perguntas de trivia, viam a resposta sugerida por uma IA e decidiam se mudariam sua escolha. A expectativa era que agentes mais humanizados influenciassem mais as decisões. O resultado foi o oposto. Quanto mais humano o agente era percebido, menor era a chance de o participante alterar sua resposta.
Segundo Scott-Sharoni, embora os agentes humanizados tenham recebido avaliações mais positivas, isso não se refletiu em maior conformidade. “As pessoas gostaram mais desses agentes, mas isso não se traduziu em comportamento”, afirmou a pesquisadora.
Julgamentos morais e confiança em máquinas
O padrão se repetiu em um segundo experimento, focado em julgamentos morais. Os participantes precisavam decidir, por exemplo, como agir ao perceber que foram cobrados a menos em um restaurante, após ouvir a orientação de um agente de voz com características humanas ou robóticas.
Mais uma vez, o agente com tom robótico foi mais seguido, mesmo sendo considerado menos simpático. A recorrência do resultado levou a pesquisadora a investigar os motivos por trás dessa diferença entre avaliação subjetiva e comportamento prático.

Viés de automação explica o comportamento
Os dados apontam para o chamado viés de automação, tendência humana de enxergar máquinas como mais objetivas e imparciais do que pessoas. Em um terceiro experimento, baseado no dilema do prisioneiro, os participantes jogaram contra um agente de IA e precisavam decidir entre cooperar ou retaliar.
Quando interagiam com agentes mais humanizados, os participantes passaram a cooperar menos ao longo do tempo, especialmente após falhas de cooperação do sistema. Já com agentes robóticos, o nível de cooperação se manteve mais estável, indicando maior tolerância e confiança na neutralidade da máquina.
Simulação de carro autônomo reforça alerta
O quarto e último experimento envolveu uma simulação de carro autônomo, considerada a situação mais próxima de um cenário real de risco. Nesse caso, os participantes não obedeceram de forma consistente a nenhum dos dois tipos de agentes, mas, novamente, os sistemas com comunicação mais humana se mostraram menos eficazes em influenciar o comportamento.
O conjunto dos experimentos reforça a ideia de que, em contextos onde segurança e conformidade são fundamentais, a humanização excessiva da IA pode ser um obstáculo.

Leia mais:
- O que é e o que faz um agente de inteligência artificial?
- Como usar a IA para proteger sua empresa de ciberataques
- O que é o Modo Investigar do ChatGPT? Entenda o recurso da inteligência artificial
Impactos para o design de sistemas de IA
Para os pesquisadores, os resultados trazem um alerta claro para engenheiros e designers. Atender às preferências do usuário nem sempre significa criar sistemas mais eficazes ou seguros. A escolha do tom e da personalidade da IA deve considerar o papel que ela desempenha na interação com humanos.
Bruce Walker, professor de psicologia e computação interativa no Georgia Tech e orientador de Scott-Sharoni, destaca que muitas pessoas desenvolvem relações de confiança com agentes artificiais. Para ele, compreender como a IA se insere no tecido social é essencial para criar sistemas que realmente melhorem a atuação humana. Ele afirma que o trabalho de Scott-Sharoni contribui de forma relevante para esse entendimento, especialmente em aplicações críticas.
O post Por que IAs simpáticas são menos eficazes, segundo pesquisadores apareceu primeiro em Olhar Digital.
