IA da Microsoft quer saber mais sobre a sua saúde, mas é seguro? Entenda nova função do Copilot

Na última terça-feira (10), a Microsoft divulgou um comunicado para informar que seu software de IA, o Copilot, será reformulado para melhor atender demandas sobre a saúda humana, trazidas pelos usuários. A decisão decorre após a companhia analisar vários históricos de conversas com o chatbot e perceber que o tópico “saúde” é o mais recorrente.

Segundo a publicação, a empresa informa que os usuários utilizam o Copilot para buscar informações sobre doenças, condições de saúde, e para tomar decisões difíceis na família. Para chegar a este parecer, foram analisadas mais de meio milhão de conversas dos usuários.

Sobre uma possível violação da privacidade dos internautas — ao analisar os históricos de interação com o chatbot — a Microsoft diz que “adotamos uma abordagem rigorosa de preservação da privacidade. Todas as conversas são desidentificadas na fonte […]. Nenhum humano lê as conversas dos usuários como parte desse processo.”

Para quem tem pressa:

  • A Microsoft lançou, em fase beta, o Copilot Health;
  • Os usuários que tem acesso adiantado à funcionalidade poderão utilizá-la para obter uma leitura contextual sobre relatórios médicos enviados ao chatbot;
  • Contudo, o compartilhamento de informações pessoais gera dúvidas quanto à privacidade dos usuários;
  • Respostas incorretas sobre condições de saúde, provenientes de interações anteriores com outros chatbos alimentados por IA, também deixam os internautas desconfiados quanto a esta nova função do Copilot.

É seguro compartilhar dados de saúde com o Copilot da Microsoft?

Copilot em um tablet (Imagem: Azulblue / Shutterstock.com)

Se qualquer usuário pesquisar rapidamente na internet, encontrará matérias (em vários idiomas) em jornais de peso que explicam porque o compartilhamento de dados pessoais com chatbos é uma má ideia.

Os motivos para especialistas em segurança digital desaprovarem esse comportamento é pautado por diferentes motivos, como:

  • Não há garantia de que os dados compartilhados não serão vazados em ataques cibernéticos: reportagem do The Guardian e Malwarebytes;
  • Chatbots e as empresas por trás deles não exatamente colaboram para o bem-estar do usuário ou das pessoas em volta deles: reportagem do The Verge;
  • Riscos em se expor a informações incorretas e perigosas: matéria do The Guardian;
  • Os dados enviados podem ser utilizados para treinar softwares de inteligência artificial: análise da Universidade de Stanford.

Apesar do consenso da comunidade de Tecnologia da Informação, a Microsoft deseja reformular o Copilot para fazer diferente: com a nova atualização, os usuários poderão compartilhar dados pessoais sobre sua saúde e obter leituras específicas da IA baseada nas informações cedidas.

A nova funcionalidade se chamará Copilot Health e pode ser acessada dentro da própria plataforma do chatbot. Contudo, será disponibilizada aos poucos para diferentes usuários que se inscreveram numa lista de espera; desta forma, o lançamento público mundial ocorrerá em algum momento no futuro.

O intuito do novo sistema é que o usuário forneça detalhes sobre a sua saúde dentro da plataforma, mas, também, que envie outras informações disponíveis em servidores paralelos. Por exemplo, será possível coletar dados por um smartwatch e enviá-los para o Copilot Health a fim de obter uma leitura específica sobre a condição de saúde do usuário, mesclando o relatório com dados outrotra compartilhados no chatbot.

Contudo, essa ultra-exposição de dados de saúde já causou problemas no passado. Uma reportagem da Fortune, publicada em 07 de março deste ano, detalha como o uso da IA pode contribuir para o aumento de sintomas delirantes e de mania em alguns usuários com saúde mental já comprometida.

Vale destacar que a Microsoft não é a única empresa detentora de uma IA que estuda como implementar essa tecnologia de “aliada à saúde humana”. A OpenAI e Anthropic já iniciaram testes para avaliar como seus respectivos chatbos podem ser aprimorados para oferecer melhores feedbacks sobre a saúde dos usuários.

Reportagens anteriores, como esta da NBC News, mostra que os chatbots alimentados por IA podem ser úteis para responder perguntas generalistas sobre saúde, mas que em contextos mais complexos, dão análises preocupantes.

Leia mais:

Como o Copilot Health vai funcionar?

Interações longas com chatbots podem aumentar os riscos de delírios (Imagem: Summit Art Creations/Shutterstock)

Quando oficialmente lançado, os usuários verão algo como uma aba chamada Health (“saúde” em inglês), na qual poderão criar um perfil após responder perguntas-base sobre idade, sexo, dentre outras. Então, será possível compartilhar relatórios médicos e dados obtidos por dispositivos como Apple Watch, Fitbit e monitores de sono como o Oura.

Após o envio das informações, os internautas devem mandar prompts de comando (por texto) para o chatbot avaliar a situação baseada nos dados de saúde recebidos. Ademais, os usuários ainda podem fazer afirmações, como “não tenho dormido bem”, para obter uma leitura baseada nos registros médicos compartilhados com a inteligência artificial.

Segundo o jornal The New York Times, o chatbot também pode gerar um resumo final com os principais problemas de saúde aos quais o usuário deve prestar atenção, como privação de sono, diabetes e pouca atividade física.

Eventualmente, a Microsoft deve cobrar uma assinatura para a utilização da ferramenta, mas os possíveis valores ainda não foram divulgados.

O post IA da Microsoft quer saber mais sobre a sua saúde, mas é seguro? Entenda nova função do Copilot apareceu primeiro em Olhar Digital.

Related posts

Falha em plugin do WordPress expõe 400 mil sites a ataques cibernéticos

O desafio de desaprender na era da IA

Guerra dos chips: por que a venda de GPUs para IA virou política