Home Variedade Microsoft descobre falha em IA que pode expor temas de conversas criptografadas

Microsoft descobre falha em IA que pode expor temas de conversas criptografadas

by Fesouza
5 minutes read

A Microsoft revelou uma vulnerabilidade que pode comprometer a privacidade das conversas com assistentes de inteligência artificial, como ChatGPT e Google Gemini. A falha, batizada de “Whisper Leak”, foi descoberta em uma série de testes com modelos de linguagem de grande escala (LLMs) e pode permitir que terceiros identifiquem o tema das conversas, mesmo sem acesso direto ao conteúdo.

De acordo com a Microsoft, o problema afeta quase todos os modelos analisados, levantando preocupações sobre a segurança de dados em serviços amplamente utilizados por milhões de pessoas em todo o mundo.

Falha não quebra criptografia, mas revela metadados

Os pesquisadores explicam que as conversas com chatbots são protegidas por TLS (Transport Layer Security) — o mesmo protocolo de segurança usado em transações bancárias online. Embora o TLS impeça que invasores leiam o texto das mensagens, ele não esconde completamente os metadados, ou seja, informações sobre o tráfego de dados, como o tamanho e o tempo entre os pacotes transmitidos.

chatbots
Microsoft levanta preocupações sobre a segurança de dados em serviços amplamente utilizados por milhões de pessoas (Imagem: Owlie Productions/Shutterstock)

Esses detalhes, aparentemente inofensivos, podem ser explorados para deduzir o tema da conversa. A Microsoft testou 28 modelos de IA, criando duas categorias de perguntas: uma sobre um assunto sensível (como lavagem de dinheiro) e outra composta por consultas aleatórias. O estudo mostrou que um sistema de IA treinado apenas com esses padrões de tráfego foi capaz de identificar corretamente o tema das conversas com mais de 98% de precisão.

Em alguns casos, a detecção de tópicos sensíveis chegou a 100% de acerto, mesmo quando representavam apenas 1 em cada 10 mil conversas.

Desafio para a segurança da inteligência artificial

Os pesquisadores tentaram aplicar três diferentes métodos de defesa contra o ataque, mas nenhum conseguiu bloquear totalmente o vazamento. Segundo a equipe, o problema não está na criptografia em si, mas na forma como os dados são transmitidos. “Esta não é uma vulnerabilidade criptográfica no TLS, mas uma exploração dos metadados que o protocolo inevitavelmente revela”, explicaram no artigo.

Leia mais:

Microsoft reforça infraestrutura de IA com acordo multibilionário com IREN
Segundo a Microsoft, é essencial que o setor adote medidas urgentes para impedir que as próximas gerações de modelos de IA sejam comprometidas (Imagem: Framalicious / Shutterstock)

A Microsoft alertou que o setor precisa agir rapidamente para evitar que futuras gerações de modelos de IA sejam afetadas. O relatório destaca a urgência de desenvolver novas soluções de segurança para proteger informações sensíveis e evitar que metadados exponham padrões de comportamento dos usuários.

Entre os principais pontos do estudo estão:

  • A falha “Whisper Leak” afeta a maioria dos modelos de IA testados
  • Metadados permitem identificar o tema das conversas, mesmo com criptografia ativa
  • O método de detecção teve precisão superior a 98%
  • Nenhuma das soluções testadas eliminou totalmente o vazamento
  • A Microsoft pede reforço nas medidas de segurança em sistemas de IA

Os resultados reforçam a importância de uma abordagem mais robusta na proteção de dados em ambientes de IA, especialmente à medida que essas tecnologias passam a lidar com informações cada vez mais sensíveis e pessoais.

Essa reportagem usou informações do TechXplore e da Microsoft.

O post Microsoft descobre falha em IA que pode expor temas de conversas criptografadas apareceu primeiro em Olhar Digital.

You may also like

Leave a Comment