Um novo estudo conduzido por pesquisadores do Instituto Stanford de Inteligência Artificial Centrada no Ser Humano (HAI) revelou que as big techs e desenvolvedoras estão utilizando as interações dos usuários com chatbots para treinar seus modelos de IA.
Essa prática, frequentemente pouco transparente, levanta sérias preocupações sobre privacidade e proteção de dados pessoais.
Pesquisa analisou os maiores chatbots do mercado
A pesquisa, liderada por Jennifer King, especialista em políticas de dados, analisou 28 documentos públicos de políticas de privacidade, subpolíticas e FAQs relacionados aos chatbots dessas empresas, incluindo ChatGPT, Claude, Gemini, Copilot, Meta AI e Nova.
Por padrão, todas as empresas utilizam as conversas dos usuários para aprimorar seus modelos. A Anthropic fez, recentemente, uma alteração em seus termos de serviço para deixar claro que as conversas serão utilizadas. No caso dela e de algumas outras empresas, existe a opção de exclusão (opt-out), permitindo que as conversas não sejam utilizadas para esse fim.
Além disso, parte das companhias mantém esses dados por tempo indeterminado e permite que os funcionários revisem manualmente a transcrição das conversas.
Se você compartilha informações sensíveis em um diálogo com o ChatGPT, o Gemini ou outros modelos, elas podem ser coletadas e usadas para treinamento, mesmo que estejam em arquivos anexados.
Jennifer King, especialista em políticas de dados e autora do estudo, ao TechXplore.
Fatores de preocupação identificados
King alerta que o problema é agravado pela ausência de uma regulamentação federal de privacidade nos Estados Unidos, o que deixa o tema sob uma “colcha de retalhos” de leis estaduais, dificultando a responsabilização das empresas.
Além disso, os pesquisadores identificaram outros pontos preocupantes nas políticas das empresas:
- As informações dos usuários podem ser armazenadas por tempo prolongado.
- Dados de menores podem ser utilizados, levantando questões de consentimento e proteção infantil.
- Os desenvolvedores não deixam claro como os dados dos usuários são coletados, armazenados e utilizados.
- Faltam mecanismos eficazes para garantir que as práticas de privacidade sejam seguidas corretamente.
Riscos à privacidade exigem atenção
A equipe de King destaca a complexidade e falta de clareza das políticas de privacidade das empresas, dificultando a compreensão dos direitos dos usuários. Além disso, informações captadas em conversas com chatbots são combinadas com dados de outros produtos, como pesquisas na web, redes sociais e histórico de compras, criando perfis ainda mais detalhados dos usuários.
O estudo também aponta riscos específicos relacionados à saúde e à privacidade biométrica. Por exemplo, uma solicitação simples de receitas com baixo teor de açúcar pode levar o chatbot a classificar o usuário como vulnerável a doenças como diabetes, influenciando anúncios direcionados e o acesso a seguros de saúde.
Leia mais:
- WhatsApp Business vai proibir chatbots de IA; entenda
- Meta vai permitir que pais controlem como filhos usam IA no Instagram
- Califórnia aprova primeira lei dos EUA para regulamentar chatbots de IA
Para reduzir esses riscos, os pesquisadores recomendam a criação de uma regulamentação federal abrangente que exija consentimento explícito (opt-in) para o uso de dados em treinamento de IA e a eliminação automática de informações pessoais das interações com os sistemas.
Precisamos decidir se os avanços em inteligência artificial justificam a perda significativa de privacidade dos consumidores. É urgente investir em soluções de IA que preservem a privacidade por design, não como uma reflexão tardia.
Jennifer King, especialista em políticas de dados e autora do estudo, ao TechXplore.
O post Alerta: suas conversas com chatbots podem ser usadas para treinar IA apareceu primeiro em Olhar Digital.