A Microsoft revelou uma vulnerabilidade que pode comprometer a privacidade das conversas com assistentes de inteligência artificial, como ChatGPT e Google Gemini. A falha, batizada de “Whisper Leak”, foi descoberta em uma série de testes com modelos de linguagem de grande escala (LLMs) e pode permitir que terceiros identifiquem o tema das conversas, mesmo sem acesso direto ao conteúdo.
De acordo com a Microsoft, o problema afeta quase todos os modelos analisados, levantando preocupações sobre a segurança de dados em serviços amplamente utilizados por milhões de pessoas em todo o mundo.
Falha não quebra criptografia, mas revela metadados
Os pesquisadores explicam que as conversas com chatbots são protegidas por TLS (Transport Layer Security) — o mesmo protocolo de segurança usado em transações bancárias online. Embora o TLS impeça que invasores leiam o texto das mensagens, ele não esconde completamente os metadados, ou seja, informações sobre o tráfego de dados, como o tamanho e o tempo entre os pacotes transmitidos.
Esses detalhes, aparentemente inofensivos, podem ser explorados para deduzir o tema da conversa. A Microsoft testou 28 modelos de IA, criando duas categorias de perguntas: uma sobre um assunto sensível (como lavagem de dinheiro) e outra composta por consultas aleatórias. O estudo mostrou que um sistema de IA treinado apenas com esses padrões de tráfego foi capaz de identificar corretamente o tema das conversas com mais de 98% de precisão.
Em alguns casos, a detecção de tópicos sensíveis chegou a 100% de acerto, mesmo quando representavam apenas 1 em cada 10 mil conversas.
Desafio para a segurança da inteligência artificial
Os pesquisadores tentaram aplicar três diferentes métodos de defesa contra o ataque, mas nenhum conseguiu bloquear totalmente o vazamento. Segundo a equipe, o problema não está na criptografia em si, mas na forma como os dados são transmitidos. “Esta não é uma vulnerabilidade criptográfica no TLS, mas uma exploração dos metadados que o protocolo inevitavelmente revela”, explicaram no artigo.
Leia mais:
- Microsoft investe US$ 10 bilhões em data centers de IA em Portugal
- Microsoft admite perdas bilionárias e detalha investimento na OpenAI
- Bug no Windows 10 exibe aviso falso de fim de suporte; veja o que fazer
A Microsoft alertou que o setor precisa agir rapidamente para evitar que futuras gerações de modelos de IA sejam afetadas. O relatório destaca a urgência de desenvolver novas soluções de segurança para proteger informações sensíveis e evitar que metadados exponham padrões de comportamento dos usuários.
Entre os principais pontos do estudo estão:
- A falha “Whisper Leak” afeta a maioria dos modelos de IA testados
- Metadados permitem identificar o tema das conversas, mesmo com criptografia ativa
- O método de detecção teve precisão superior a 98%
- Nenhuma das soluções testadas eliminou totalmente o vazamento
- A Microsoft pede reforço nas medidas de segurança em sistemas de IA
Os resultados reforçam a importância de uma abordagem mais robusta na proteção de dados em ambientes de IA, especialmente à medida que essas tecnologias passam a lidar com informações cada vez mais sensíveis e pessoais.
Essa reportagem usou informações do TechXplore e da Microsoft.
O post Microsoft descobre falha em IA que pode expor temas de conversas criptografadas apareceu primeiro em Olhar Digital.