A trajetória atual da inteligência artificial “apresenta perigos sem precedentes” para a humanidade, de acordo com um grupo de especialistas em tecnologia, cientistas, políticos e ganhadores do Prêmio Nobel. O alerta está em uma carta aberta assinada por mais de 200 personalidades, divulgada na última segunda-feira (22).
Lido pela ganhadora do Prêmio Nobel da Paz de 2021, Maria Ressa, o documento foi apresentado aos participantes da Assembleia Geral da Organização das Nações Unidas (ONU) que acontece esta semana em Nova York (Estados Unidos). Nele, os signatários pedem medidas urgentes para regular a IA, antes que seja tarde.
Quais são os riscos associados à IA?
Intitulada “Apelo Global por Limites para a IA”, a carta aberta inicia comentando sobre o potencial da tecnologia para promover o bem-estar humano. Mas logo após, aponta que a inteligência artificial vai superar as capacidades humanas em breve, representando riscos graves.
- Os autores alegam que o uso desenfreado e sem regras da IA nos expõe à desinformação generalizada, violações sistemáticas de direitos humanos e desemprego em massa;
- Eles também citam perigos relacionados à manipulação em massa, inclusive de crianças, pandemias artificiais e ameaças à segurança nacional e internacional;
- São mencionados, ainda, comportamentos enganosos e prejudiciais de sistemas avançados de IA, que mesmo assim continuam a ter autonomia para tomar decisões;
- Entre os exemplos dados, os signatários também alertam sobre os perigos de deixar a tecnologia assumir o controle de arsenais nucleares ou quaisquer tipos de sistemas de armas autônomas letais.
Diante do cenário, o grupo pede que os governos ajam “antes que a janela para uma intervenção efetiva se feche”. Isso incluiria a elaboração de acordos válidos globalmente com limites claros para a prevenção de riscos associados à IA.
As regras devem ser seguidas de maneira igual pelos fornecedores da tecnologia, garantindo controle humano significativo. A carta sugere, ainda, que a regulamentação com “mecanismos robustos de fiscalização” aconteça até o final de 2026 — alguns especialistas preveem a disponibilidade da superintelingência em 2027.
Quem assinou o documento?
Entre as mais de 200 pessoas que assinaram a carta pedindo medidas contra usos perigosos da IA, estão os “padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, o autor de best-sellers Yuval Noah Harari e o ator Stephen Fry. Ex-chefes de estado como Mary Robinson (Irlanda) e Juan Manuel Santos (Colômbia) também participaram.
A lista de signatários inclui, ainda, 10 ganhadores do Prêmio Nobel, pesquisadores renomados de IA, especialistas que trabalharam na OpenAI, Microsoft, Google DeepMind e Anthropic, líderes dos EUA e da China e organizações da sociedade civil. Leia o documento completo aqui.
Vale lembrar que outras iniciativas semelhantes já ganharam destaque, como a aberta com mais de 1 mil signatários, entre os quais Elon Musk, que pedia a paralisação das pesquisas avançadas de IA. A publicação aconteceu em 2023.
E você, o que pensa sobre os perigos da IA? Comente nas redes sociais do TecMundo.