A discussão sobre como descrevemos os erros da inteligência artificial está ganhando força. Pesquisadores defendem que o termo “alucinação” está errado e cria mitos perigosos sobre a tecnologia.
No lugar, especialistas sugerem substituí-lo por “confabulação”, explicação mais precisa para quando um sistema gera respostas falsas, sem envolver a ideia de consciência ou intenção, explica a ZDNET.

Por que “alucinação” não faz sentido para a IA?
A expressão “alucinação de IA” se tornou extremamente popular entre usuários de ferramentas como ChatGPT, Gemini e Perplexity. Sempre que uma resposta sai totalmente equivocada, o público costuma dizer que o sistema “alucinou”.
Mas, segundo especialistas, isso é um erro conceitual sério. Em medicina, uma alucinação é uma percepção sensorial consciente que não corresponde ao mundo externo. Sistemas de IA não têm consciência, percepção ou experiências sensoriais.
Já a confabulação descreve a formulação de afirmações que divergem dos fatos – exatamente o que acontece quando um modelo fornece informações falsas com aparência de verdade.
A IA renomeou tudo: a ‘alucinação’ em neurociência agora é chamada de confabulação, o que acho que se aproxima mais do que realmente está acontecendo.
Terry Sejnowski, especialista em IA, à ZDNET.

Qual o impacto real dessa confusão?
Trocar os termos não é apenas um detalhe técnico. Usar “alucinação” alimenta a falsa ideia de que a IA tem consciência. Isso pode levar pessoas a confiar excessivamente nos resultados e, pior, atribuir emoções, intenções ou julgamento moral a softwares que apenas calculam probabilidades.
Uma matéria recente do The New York Times mostrou como esse problema já ocorre na prática, reunindo dezenas de casos em que usuários passaram por crises graves ao interagir com chatbots como se fossem confidentes.
Leia mais:
- xAI, de Elon Musk, anuncia Grok 4.1 mais rápido e com menos alucinações
- A ilusão da amizade com a inteligência artificial
- Sociabilidade artificial: por que estamos nos apegando a máquinas que não sentem?
Isso revela como a escolha das palavras influencia percepções, cria expectativas irreais e pode gerar riscos emocionais, especialmente quando as pessoas acreditam que a tecnologia “sente” ou “pensa”.

De onde vem o termo
Embora esteja popular agora, o termo “alucinação” não é novo na IA. Desde a década de 1980, aparece em pesquisas, inicialmente até com conotação positiva, sendo usado para descrever como sistemas conseguiam extrair padrões de imagens ruidosas.
Com o avanço dos modelos de IA generativos, porém, o termo passou a indicar erros graves, o que levou ao uso excessivo e confuso.
Hoje, pesquisadores apontam várias razões para abandonar o conceito:
- Implica consciência onde ela não existe.
- Cria expectativas irreais sobre a tecnologia.
- Não reflete o funcionamento estatístico dos modelos.
- Estimula mitos sobre “senciência”.
- É usado de forma inconsistente até em artigos científicos.
Para muitos especialistas, “confabulação” é simplesmente uma analogia menos imprecisa, até que surja um termo técnico mais adequado.
Debate em evolução
Pesquisadores alertam que até “confabulação” pode ser problemático, tanto por possíveis estigmas ligados a condições humanas quanto por ainda carregar uma conotação psicológica. Alguns sugerem expressões como “resposta não relacionada” ou “deficiência algorítmica”, embora esses termos sejam menos acessíveis ao público.
O consenso, por enquanto, é que a linguagem precisa evoluir. A IA não vê, não sente e não experiencia o mundo. Ela apenas calcula probabilidades – e, às vezes, calcula errado.
O post A confusão por trás do termo “alucinação” em inteligência artificial apareceu primeiro em Olhar Digital.
