DeepSeek-V4 é uma das liberações de modelo open-weight mais ambiciosas da DeepSeek até agora. A família inclui o DeepSeek-V4-Pro, um modelo Mixture-of-Experts com 1,6T de parâmetros e 49B de parâmetros ativados, e o DeepSeek-V4-Flash, um modelo MoE menor com 284B de parâmetros e 13B de parâmetros ativados. Ambos os modelos suportam um comprimento de contexto de até um milhão de tokens.
O Google DeepMind lançou o Gemma 4 no começo de 2026, e a variante de 31B instruction-tuned acerta em cheio: grande o suficiente pra competir com modelos proprietários em benchmarks de raciocínio, pequeno o suficiente pra rodar numa placa de vídeo decente. Ele faz 85.2% no MMLU Pro e 89.2% no AIME 2026 sem ferramentas, o que coloca ele no mesmo patamar de modelos com o dobro do tamanho.
Executar o Kimi-K2-Instruct localmente pode parecer complicado no começo — mas com as ferramentas e passos certos, é surpreendentemente simples. Seja você um desenvolvedor querendo experimentar modelos avançados de IA ou alguém que deseja controle total sobre a inferência sem depender de APIs na nuvem, este guia irá conduzi-lo por todo o processo passo a passo.