Cientistas afirmam que IA baseada em texto não reflete inteligência real

As big techs prometem que a inteligência artificial (IA) vai ultrapassar a capacidade humana nos próximos anos, mas pesquisas recentes sugerem que essa visão pode estar baseada em premissas equivocadas. Para especialistas, os modelos atuais reproduzem linguagem em escala, porém isso não significa que máquinas estejam se aproximando da forma como pensamos ou raciocinamos.

O argumento central é que linguagem e inteligência não são a mesma coisa. Embora humanos usem linguagem para comunicar ideias, ela não necessariamente origina ou define nossa capacidade de pensar. Esse contraste está no centro de uma discussão que coloca em dúvida previsões otimistas feitas por executivos como Mark Zuckerberg, Sam Altman e Dario Amodei.

Enquanto big techs apostam na proximidade da inteligência artificial geral, cientistas alertam que esta proximidade pode não ser verdadeira (Imagem: tete_escape / Shutterstock.com)

CEOs de big techs apostam que AGI está próxima

Nos últimos anos, líderes do setor passaram a afirmar que a inteligência artificial geral (AGI, na sigla em inglês) está no horizonte. Mark Zuckerberg diz que “desenvolver superinteligência está à vista”. Dario Amodei acredita que sistemas mais inteligentes do que ganhadores do Nobel podem surgir já em 2026. Sam Altman, da OpenAI, afirma estar confiante de que já existe clareza sobre como construir AGI.

Segundo o discurso dessas empresas, basta ampliar o volume de dados e recursos computacionais para alcançar uma forma de inteligência maior que a humana. A aposta é que, com o avanço de chips e data centers, sistemas como ChatGPT, Gemini, Claude e outras ferramentas poderão reproduzir todas as capacidades cognitivas humanas.

O limite dos modelos de linguagem

Entretanto, os cientistas argumentam que essa lógica parte de um erro conceitual. Modelos de linguagem são, essencialmente, mecanismos de previsão de texto, treinados em grandes volumes de palavras e correlações estatísticas. Eles funcionam a partir de relações matemáticas, não do raciocínio que construímos biologicamente.

O problema é que, segundo décadas de pesquisa em neurociência, o pensamento humano é maior do que linguagem. Estudos com ressonância magnética mostram que diferentes áreas do cérebro atuam quando raciocinamos, resolvemos problemas ou tentamos entender outras pessoas — regiões distintas das que usamos para falar ou compreender frases.

A neurociência destaca que o pensamento humano vai além da linguagem (Imagem: CoreDesignKEY/iStock)

Pesquisas reforçam a separação entre pensamento e fala

Um artigo publicado ano passado na revista Nature por Evelina Fedorenko, Steven T. Piantadosi e Edward A.F. Gibson resume esse entendimento. Os autores defendem que a linguagem é principalmente uma ferramenta de comunicação, não a fonte do pensamento. Eles destacam que pessoas com danos cerebrais severos podem perder a capacidade de falar sem perder a habilidade de raciocinar, interpretar situações, resolver problemas ou fazer deduções lógicas.

Crianças pequenas também demonstram isso: antes de falar, exploram o mundo, aprendem por tentativa e erro e desenvolvem compreensão sobre causa e efeito. Segundo os cientistas, a cognição melhora com a linguagem, mas não depende dela para existir.

Críticas ao foco exclusivo em LLMs

Mesmo dentro da indústria, cresce a percepção de que ampliar apenas modelos de linguagem não leva à inteligência geral. Há desenvolvedores defendendo modelos que entendam o mundo além do texto, com memória persistente e capacidade de planejar ações complexas.

Pesquisadores e executivos como Yoshua Bengio, Eric Schmidt e Gary Marcus propõem uma definição de AGI baseada em múltiplas capacidades, como memória, raciocínio, planejamento e interpretação visual, e não apenas domínio de leitura e escrita. A ideia é que inteligência seja composta por diversos componentes, não por uma única habilidade ampliada.

A inteligência humana é composta por diversos componentes, dizem pesquisadores, e para uma IA atingir o status de AGI, precisaria de múltiplas capacidades (Imagem: 3Dsss / Shutterstock.com)

Leia mais:

Mesmo com mais habilidades, desafios permanecem

Ainda assim, essa abordagem não resolve todas as questões. Mesmo que uma IA consiga desempenhar todas as tarefas humanas com alta competência, isso não significa que será capaz de criar novas formas de conhecimento. Para filósofos como Thomas Kuhn e Richard Rorty, grandes avanços surgem quando alguém se torna insatisfeito com os modelos atuais e propõe novas interpretações da realidade.

Um sistema treinado apenas a partir de dados existentes pode reproduzir padrões, mas não necessariamente terá motivo para ultrapassá-los. O resultado pode ser uma tecnologia eficiente para reorganizar, combinar e aplicar informações, sem romper paradigmas ou expandir a compreensão humana de forma original.

Assim, o trabalho dos cientistas sugere que os modelos atuais são máquinas de linguagem, não de pensamento. Eles dependem dos dados fornecidos e ficam limitados ao vocabulário existente. Já pessoas conseguem ir além, desenvolver novas ideias e transformar a forma como entendemos o mundo.

O post Cientistas afirmam que IA baseada em texto não reflete inteligência real apareceu primeiro em Olhar Digital.

Related posts

Em meio à crise, lojas dos EUA estão tirando preços de memórias das prateleiras

Golden Friday Fast Shop tem Kindle, smart TVs, notebooks e mais com descontos imperdíveis

WhatsApp prepara guia de boas práticas para reduzir suspensões no app