Pesquisa revela o que pode aumentar chances de uma IA alucinar

Um estudo recente da empresa francesa Giskard revelou que instruções para que modelos de inteligência artificial (IA) sejam concisos podem aumentar significativamente a ocorrência de “alucinações” — respostas factualmente incorretas geradas por IA.

A pesquisa, que avaliou modelos líderes como o GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, identificou que, ao serem orientados a responder de forma breve, esses sistemas tendem a sacrificar a precisão em favor da economia de palavras.

Isso ocorre especialmente em perguntas mal formuladas ou ambíguas, nas quais seria necessário mais contexto ou explicação para refutar premissas falsas.

Leia mais:

IA tende a evitar refutações quando não tem “espaço” para argumentar, gerando respostas falsas com mais frequência (Imagem: lilgrapher/Shutterstock)

Detalhes do estudo

  • De acordo com os pesquisadores, que publicaram em um blog suas descobertas, quando a IA tem pouco “espaço” para argumentar, ela raramente questiona afirmações equivocadas, resultando em respostas mais confiantes — mas erradas.
  • A Giskard alerta que instruções aparentemente inofensivas como “seja conciso” podem comprometer a qualidade informativa de sistemas de IA.
  • Esta realidade é preocupante em contextos sensíveis, como saúde, política ou educação.

Postura do usuário pode influenciar erros

O estudo também revelou que os modelos são menos propensos a corrigir informações quando os usuários se expressam com confiança, e que as preferências dos usuários muitas vezes priorizam estilo ou tom, e não necessariamente a veracidade.

Isso reforça um dilema já enfrentado por empresas como a OpenAI: como equilibrar uma boa experiência de uso com a fidelidade factual das respostas?

Para a Giskard, o desafio vai além da tecnologia: trata-se de alinhar sistemas de IA com objetivos claros de verdade e responsabilidade, mesmo quando isso significa contrariar expectativas do usuário.

Estudo indica que instruções por brevidade limitam a capacidade de IA de detectar e corrigir erros (Imagem: TeeStocker/Shutterstock)

O post Pesquisa revela o que pode aumentar chances de uma IA alucinar apareceu primeiro em Olhar Digital.

Related posts

Galaxy M17e 5G deve ser uma ‘cópia’ do futuro Galaxy A07 5G baratinho

Quais Resident Evil preciso jogar antes de Requiem? Veja as dicas

Chineses criam método rápido e barato para extrair ouro de eletrônicos