O historiador e autor de best-sellers Yuval Harari acredita que a superinteligência artificial representa riscos para o futuro da humanidade ao adquirir a capacidade de agir de forma independente e sem qualquer controle. Ele falou sobre o assunto durante entrevista ao programa Fantástico da TV Globo exibida no último domingo (24).
Na última semana, o professor israelense esteve na capital paulista para apresentar seu novo livro, Nexus: Uma breve história das redes de informação, da Idade da Pedra à inteligência artificial, no evento São Paulo Beyond Business (SP2B). A obra também aborda os impactos da tecnologia e como ela ameaça a nossa existência.
O que Yuval Harari disse sobre a IA?
Tratando a tecnologia como “inteligência alienígena”, o famoso escritor destaca que a IA se desenvolve de um jeito totalmente diferente da inteligência humana e por isso ambas não podem ser comparadas. Para ele, a versão mais avançada e capaz de tomar decisões por conta própria está perto de surgir, mas não tão rápido como sugerem alguns pesquisadores.
- Harari acredita em uma tomada de controle gradual e perigosa das IAs, que não acontecerá como nos filmes, com robôs e máquinas ameaçando as pessoas;
- Para o autor, os chatbots vão acabar com determinadas profissões em 10 ou 15 anos, como os escritores, sendo capazes de escrever livros melhores do que os humanos;
- O maior problema está na corrida para liderar o desenvolvimento da IA, que vem acontecendo sem a regulamentação adequada, o que pode significar grandes perigos ao conceder poder à tecnologia;
- Com isso, alguns algoritmos podem passar a assumir o controle de narrativas nas redes sociais, espalhando desinformação e teorias da conspiração sem nenhum controle;
- “Em uma corrida de IAs sem limites, nós sabemos quem vai vencer: a IA vai vencer e a humanidade vai perder”, disse ele, à reportagem.
Ainda conforme o historiador, as decisões sobre o futuro da IA não podem mais ficar nas mãos de um pequeno grupo de pessoas, defendendo uma maior transparência em relação ao assunto. Ele menciona, especificamente, os CEOs de empresas do setor, que estariam monopolizando as discussões.
No evento que participou em São Paulo, Yuval também comentou que a tecnologia se transformou no mais novo ator político global. Em breve, a IA será responsável por inventar novas estratégias militares, ditando como os governos devem agir, além de criar novas moedas, ideologias e até religiões.
Previsões mais sombrias
Enquanto o historiador israelense acredita que o domínio da IA sobre a humanidade acontecerá de uma forma mais lenta e tímida, alguns especialistas do segmento pensam diferente. Coautor do relatório AI 2027, o pesquisador Eli Lifland prevê que a superinteligência pode estar disponível em dois anos e isso não será positivo.
“Superinteligência é uma IA melhor que os humanos em absolutamente todas as tarefas”, destacou o especialista, em entrevista ao programa. Ele comentou que a virada acontecerá quando essa versão mais inteligente começar a programar suas próximas gerações por conta própria, sem qualquer intervenção.
A partir daí, ela se tornaria capaz de controlar tudo, dos trabalhos braçais aos intelectuais, fazendo com que os humanos não se tornassem mais necessários. Conforme Lifland, há dois finais prováveis para quando isso acontecer, com um deles envolvendo os governos e a sociedade decidindo frear os avanços em IA antes que se perca o controle.
Já no outro cenário mais sombrio, com os alertas sobre os perigos da IA ignorados, superinteligências americana e chinesa se uniriam para enganar as autoridades, construindo um mundo totalmente tecnológico. Ao notarem que os humanos não são mais úteis, elas decidiriam exterminar a humanidade usando drones, armas químicas e nucleares.
E você, acredita que as IAs representam perigo para o futuro da humanidade? Comente nas redes sociais do TecMundo.