DeepSeek-V4 est l’une des sorties de modèles open-weight les plus ambitieuses de DeepSeek à ce jour. La famille comprend DeepSeek-V4-Pro, un modèle Mixture-of-Experts (MoE) de 1,6T de paramètres avec 49 milliards de paramètres activés, et DeepSeek-V4-Flash, un modèle MoE plus petit de 284 milliards de paramètres avec 13 milliards de paramètres activés. Les deux modèles supportent une longueur de contexte allant jusqu’à un million de tokens.
Google DeepMind a sorti Gemma 4 debut 2026, et la variante 31B instruction-tuned tombe pile ou il faut : assez grosse pour rivaliser avec les modeles proprietaires sur les benchmarks de raisonnement, assez legere pour tourner sur une carte graphique grand public. Elle atteint 85.2% sur MMLU Pro et 89.2% sur AIME 2026 sans outils, ce qui la met dans la meme categorie que des modeles deux fois plus gros.
Exécuter Kimi-K2-Instruct localement peut sembler intimidant au premier abord — mais avec les bons outils et étapes, c’est étonnamment simple. Que vous soyez développeur souhaitant expérimenter avec des modèles d’IA avancés ou quelqu’un qui veut un contrôle total sur l’inférence sans dépendre des API cloud, ce guide vous accompagnera pas à pas tout au long du processus.