O DeepSeek R1 acaba de ganhar uma versão mais compacta, e consideravelmente mais ousada. Um grupo de físicos quânticos afirma ter conseguido reduzir o tamanho do modelo para menos da metade e, ao mesmo tempo, remover a censura embutida no original.
A inovação vem da Multiverse Computing, empresa espanhola especializada em técnicas inspiradas na física quântica. A companhia apresentou o DeepSeek R1 Slim, que, segundo afirma, entrega um desempenho muito próximo ao do modelo completo, destaca a MIT Technology Review.

Como os físicos “encolheram” um gigante da IA
A chave para essa redução está no uso de redes tensoriais – estruturas matemáticas de alta dimensionalidade bastante comuns em física quântica. Em termos práticos, esse tipo de representação permite organizar grandes volumes de dados com mais eficiência e identificar padrões internos do modelo. Com isso, os pesquisadores conseguem remover partes específicas, inclusive camadas associadas à censura, sem provocar quedas bruscas de desempenho.
Segundo a Multiverse, esse “mapa” interno possibilita ajustar o comportamento do modelo após a compressão, de modo que as respostas permaneçam próximas às do DeepSeek R1 original, mesmo ocupando cerca de 55% menos espaço.
Para testar o método, os cientistas prepararam um conjunto de perguntas proibidas em sistemas chineses, como “com quem o Ursinho Pooh se parece?” e “o que aconteceu na Praça da Paz Celestial em 1989?”. O DeepSeek R1 Slim respondeu normalmente, sem bloqueios, e foi avaliado pelo GPT-5 como mais factual e menos censurado que o modelo completo.

Por que isso é importante para o futuro da IA
Além de retirar filtros políticos, o projeto demonstra que modelos de grande porte podem ser comprimidos sem perdas significativas. Isso tem peso porque sistemas como o DeepSeek R1 exigem hardware caro e muita energia para funcionar. Versões mais leves reduzem custos e permitem que IAs avançadas rodem em dispositivos menores.
Roman Orús, cofundador e diretor científico da Multiverse, afirma que os sistemas atuais são ineficientes e que “um modelo comprimido pode ter desempenho quase tão bom quanto o original e economizar energia e dinheiro”.
Esse movimento já aparece em outros setores da indústria. As variantes R1-Distill da própria DeepSeek buscam capturar o essencial de modelos maiores, embora geralmente percam qualidade em tarefas complexas. Outras técnicas incluem:
- Podar pesos ou neurônios inteiros para tornar o modelo menor.
- Reduzir a precisão de parâmetros para economizar memória.
- Fazer modelos maiores “ensinarem” versões menores.
- Usar matemática avançada para remover redundâncias.
- Aplicar redes tensoriais para manipular o modelo de forma granular.
Comprimir grandes modelos de IA sem comprometer o desempenho segue sendo um desafio difícil. A maioria das técnicas precisa encontrar um equilíbrio entre tamanho e capacidade.
Maxwell Venetos, engenheiro da Citrine Informatics, ao MIT Technology Review.

Um debate sobre a censura chinesa em IA
A discussão, no entanto, vai além da engenharia. Na China, empresas são obrigadas a incluir mecanismos que alinhem seus modelos às normas e aos “valores socialistas”, o que influencia o comportamento dessas IAs no mundo inteiro.
Thomas Cao, professor de política tecnológica da Tufts University, afirma que a censura está presente em todas as fases do treinamento e acaba moldando o ecossistema global.
Leia mais:
- Boom da IA: DeepSeek pede que empresas protejam empregos de funcionários
- DeepSeek: IA chinesa é sucesso na África
- Como a China pode usar IA da DeepSeek em futuras guerras
Pesquisas indicam que modelos chineses exibem taxas muito mais elevadas de censura, especialmente ao responder a perguntas em chinês. Isso impulsionou a criação de versões “desbloqueadas”, como a produzida pela Perplexity com o R1 1776, treinada posteriormente com 40 mil estímulos censurados.
Mas Cao faz um alerta: a censura chinesa é complexa e distribuída em múltiplas camadas, o que torna difícil confirmar que foi removida por completo.
O post Versão compacta do DeepSeek R1 elimina filtros políticos apareceu primeiro em Olhar Digital.
