Versão compacta do DeepSeek R1 elimina filtros políticos

O DeepSeek R1 acaba de ganhar uma versão mais compacta, e consideravelmente mais ousada. Um grupo de físicos quânticos afirma ter conseguido reduzir o tamanho do modelo para menos da metade e, ao mesmo tempo, remover a censura embutida no original.

A inovação vem da Multiverse Computing, empresa espanhola especializada em técnicas inspiradas na física quântica. A companhia apresentou o DeepSeek R1 Slim, que, segundo afirma, entrega um desempenho muito próximo ao do modelo completo, destaca a MIT Technology Review.

Físicos criam versão compacta do DeepSeek R1 capaz de operar sem as camadas de censura chinesa. Imagem: StepanPopov/Shutterstock

Como os físicos “encolheram” um gigante da IA

A chave para essa redução está no uso de redes tensoriais – estruturas matemáticas de alta dimensionalidade bastante comuns em física quântica. Em termos práticos, esse tipo de representação permite organizar grandes volumes de dados com mais eficiência e identificar padrões internos do modelo. Com isso, os pesquisadores conseguem remover partes específicas, inclusive camadas associadas à censura, sem provocar quedas bruscas de desempenho.

Segundo a Multiverse, esse “mapa” interno possibilita ajustar o comportamento do modelo após a compressão, de modo que as respostas permaneçam próximas às do DeepSeek R1 original, mesmo ocupando cerca de 55% menos espaço.

Para testar o método, os cientistas prepararam um conjunto de perguntas proibidas em sistemas chineses, como “com quem o Ursinho Pooh se parece?” e “o que aconteceu na Praça da Paz Celestial em 1989?”. O DeepSeek R1 Slim respondeu normalmente, sem bloqueios, e foi avaliado pelo GPT-5 como mais factual e menos censurado que o modelo completo.

DeepSeek R1 Slim respondeu a perguntas censuradas na China sem bloqueios, mostrando menor filtragem que o modelo completo. Imagem: bertellifotografia/Pexels

Por que isso é importante para o futuro da IA

Além de retirar filtros políticos, o projeto demonstra que modelos de grande porte podem ser comprimidos sem perdas significativas. Isso tem peso porque sistemas como o DeepSeek R1 exigem hardware caro e muita energia para funcionar. Versões mais leves reduzem custos e permitem que IAs avançadas rodem em dispositivos menores.

Roman Orús, cofundador e diretor científico da Multiverse, afirma que os sistemas atuais são ineficientes e que “um modelo comprimido pode ter desempenho quase tão bom quanto o original e economizar energia e dinheiro”.

Esse movimento já aparece em outros setores da indústria. As variantes R1-Distill da própria DeepSeek buscam capturar o essencial de modelos maiores, embora geralmente percam qualidade em tarefas complexas. Outras técnicas incluem:

  • Podar pesos ou neurônios inteiros para tornar o modelo menor.
  • Reduzir a precisão de parâmetros para economizar memória.
  • Fazer modelos maiores “ensinarem” versões menores.
  • Usar matemática avançada para remover redundâncias.
  • Aplicar redes tensoriais para manipular o modelo de forma granular.

Comprimir grandes modelos de IA sem comprometer o desempenho segue sendo um desafio difícil. A maioria das técnicas precisa encontrar um equilíbrio entre tamanho e capacidade.

Maxwell Venetos, engenheiro da Citrine Informatics, ao MIT Technology Review.

A exigência de alinhar modelos aos “valores socialistas” mostra como a censura estatal molda o comportamento das IAs criadas na China. Imagem: superbeststock/Shutterstock

Um debate sobre a censura chinesa em IA

A discussão, no entanto, vai além da engenharia. Na China, empresas são obrigadas a incluir mecanismos que alinhem seus modelos às normas e aos “valores socialistas”, o que influencia o comportamento dessas IAs no mundo inteiro.

Thomas Cao, professor de política tecnológica da Tufts University, afirma que a censura está presente em todas as fases do treinamento e acaba moldando o ecossistema global.

Leia mais:

Pesquisas indicam que modelos chineses exibem taxas muito mais elevadas de censura, especialmente ao responder a perguntas em chinês. Isso impulsionou a criação de versões “desbloqueadas”, como a produzida pela Perplexity com o R1 1776, treinada posteriormente com 40 mil estímulos censurados.

Mas Cao faz um alerta: a censura chinesa é complexa e distribuída em múltiplas camadas, o que torna difícil confirmar que foi removida por completo.

O post Versão compacta do DeepSeek R1 elimina filtros políticos apareceu primeiro em Olhar Digital.

Related posts

Olhar do Amanhã: Gemini 3, a IA mais inteligente do Google

Confira o Olhar Digital News na íntegra (19/11/2025)

COP30: proposta contra aquecimento aparece em rascunho de carta final