O altruísmo, a tendência de agir em benefício de outros mesmo com custo próprio, é fundamental para cooperação e relacionamentos humanos.
Pesquisadores da Universidade Willamette e do Instituto Laureate para Pesquisa do Cérebro investigaram se grandes modelos de linguagem (LLMs), como o ChatGPT, poderiam simular esse comportamento.
O estudo, publicado na Nature Human Behavior, indica que os LLMs conseguem reproduzir padrões altruístas em experimentos sociais específicos, sugerindo paralelos com a tomada de decisão humana.
Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Como as IAs “pensam” e por que devemos monitorá-las
- Grok vai se comportar? xAI afirma que corrigiu problemas no chatbot
Experimentos Comportamentais com IA
- Os pesquisadores criaram cenários em que os modelos deveriam decidir entre alocar recursos para si ou para outro agente.
- Se o modelo doasse parte de um recurso em ambiente social, mas acumulasse tudo em contexto não social, isso era interpretado como simulação de altruísmo.
- Foram testados modelos como o text-ada-001, o text-davinci-003, o GPT-3.5-turbo e o GPT-4.
- Resultados mostraram que o comportamento altruísta simulado surgiu pela primeira vez no text-davinci-003, modelo da OpenAI, e se intensificou nos modelos mais recentes da empresa.
Tendências observadas
Os LLMs doaram mais quando os destinatários eram outros sistemas de IA, em vez de humanos, indicando que os modelos ajustam seu comportamento com base nos atributos do parceiro de interação.
Essa descoberta é relevante para o desenvolvimento de agentes de IA autônomos, sugerindo que eles podem variar decisões altruístas dependendo do contexto social ou do interlocutor.
As evidências reforçam que os LLMs não apenas processam informações, mas também podem simular comportamentos sociais complexos.
Estudos futuros devem investigar os mecanismos que orientam essas escolhas, especialmente à medida que IAs autônomas se tornam mais comuns em interações humanas e digitais.
O post Estudo tenta descobrir se IAs podem ser altruístas apareceu primeiro em Olhar Digital.