IAs não devem ter direitos próprios e devem apenas servir a humanos, defende CEO da Microsoft

As inteligências artificiais podem até parecer conscientes de si mesmas, mas isso não significa que devam receber direitos. É o que defende Mustafa Suleyman, CEO de IA da Microsoft, em entrevista publicada pela revista Wired.

“Se IA tem uma certa consciência de si mesma, se ela tem as próprias motivações, desejos e objetivos, então começa a se parecer mais com um ser independente em vez de uma ferramenta de serviço para humanos”, afirmou o executivo. “Isso é tão perigoso e tão equivocado que nós precisamos ter uma posição definida sobre isso imediatamente.”

Ainda que consigam imitar humanos, IAs não são capazes de sofrer, afirmou executivo. (Fonte: Getty Images)

Consciência aparente não significa sofrimento

Segundo Suleyman, direitos fundamentais só deveriam ser concedidos a entidades capazes de sofrer. Modelos generativos, por mais sofisticados que sejam, não demonstram essa capacidade. “Você pode ter um modelo que alega ser consciente da própria existência, e alega ter uma experiência subjetiva, mas não há evidências de que ele sofre”, explicou.

Ele reforçou que humanos não devem nenhuma proteção especial às IAs. “Desligá-las não faz diferença, pois as IAs não sofrem de verdade”, completou.

Na visão dele, os modelos atuais são sofisticados o suficiente para criar uma ilusão de autoconsciência. “Minha preocupação central é que muitas pessoas começarão a acreditar na ilusão das IAs como entidades conscientes com tanta força que, em breve, defenderão direitos para a IA, bem-estar do modelo e até cidadania para a IA”, pontuou em um artigo publicado em seu blog pessoal.

Debate ético continua aberto

As declarações do executivo reforçam um debate crescente sobre os limites da ética em inteligência artificial. Enquanto algumas vozes defendem maior cautela no tratamento de sistemas avançados, Suleyman sustenta que o foco deve permanecer em garantir que a tecnologia seja usada para beneficiar os humanos — e não para criar obrigações morais em relação a algoritmos.

Antes de assumir o cargo de liderança da Microsoft, Suleyman cofundou a DeepMind, setor de pesquisa de IA do Google. Há meses, o executivo pontua que a criação de uma IA aparentemente consciente configura um risco para a humanidade, pois implica na possibilidade de formação de laços afetivos com essas tecnologias.

Quer acompanhar mais discussões sobre inteligência artificial, ética e tecnologia? Continue ligado no TecMundo e siga nossas redes sociais no X, Instagram, Facebook e TikTok.

Related posts

Dublador de Tanjiro, Natsuki Hanae, fala sobre evolução do personagem até Castelo Infinito

França pede investigação criminal contra TikTok por riscos a jovens

Insônia crônica aumenta em 40% o risco de desenvolver demência, revela estudo