As histórias de máquinas se rebelando contra seus criadores já se tornaram parte da nossa cultura popular. Filmes, livros e videogames abordam esse medo de forma recorrente. Mas será que a inteligência artificial pode realmente tomar consciência e sair do nosso controle?
Pesquisadores da Universidade Técnica de Darmstadt, na Alemanha, e da Universidade de Bath, no Reino Unido, foram à procura de uma resposta e observaram se modelos de linguagem grandes (LLMs – sigla em inglês) podem desenvolver habilidades para além de seu código. O resultado mostra que não precisamos ter medo por enquanto.
A IA pode se desenvolver de forma independente?
Com o aumento do tamanho dos atuais modelos de linguagem, há o temor de que eles possam desenvolver habilidades perigosas, como raciocínio e planejamento.
Nos testes, os pesquisadores analisaram quatro modelos de LLMs que desenvolveram tarefas emergentes, ou seja, para as quais não foram explicitamente treinados.
Eles não encontraram evidências de desenvolvimento de pensamento independente ou qualquer tipo de comportamento fora da programação.
Todas as habilidades exibidas pelos modelos foram explicadas pela capacidade de seguir instruções, memorização e proficiência linguística, sem qualquer desvio.
Em resumo, o resultado mostra que o medo de que um modelo de IA desenvolva comportamentos inesperados e consciência não é justificado.
Leia mais:
Fala AI: IA atinge novo patamar na geração de imagens
O que é e como ativar o modo Super Alexa?
Como aumentar quantidade de mensagens no ChatGPT 4o
O perigo real está nos humanos
Nos últimos anos, os modelos de linguagem (LLMs) evoluíram para se tornarem muito mais sofisticados, sendo capazes de manter conversas coerentes e naturais via texto. Apesar disso, esses modelos não são perfeitos, pois não possuem inteligência real, o que os impede de distinguir informações boas e ruins em muitos casos.
O perigo mesmo está em quem e como utiliza essas ferramentas. Ao contrário da IA, as pessoas são menos previsíveis, e seu uso desenfreado da tecnologia já levanta questões como direitos autorais, confiança, poluição digital e outros. Segundo pesquisadores, essas ameaças devem ser o foco de futuras investigações científicas.
Nossos resultados não significam que a IA não seja uma ameaça. Em vez disso, mostram que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal.
Iryna Gurevych, autora da pesquisa, em artigo da Universidade Técnica de Darmstadt
A pesquisa foi divulgada nos anais da 62ª Reunião Anual da Associação de Linguística Computacional.
O post Qual a chance da IA se revoltar contra os humanos? Ciência responde apareceu primeiro em Olhar Digital.