DeepSeek-V4 ist eine der ambitioniertesten Open-Weight-Modellveröffentlichungen von DeepSeek bisher. Die Familie umfasst DeepSeek-V4-Pro, ein Mixture-of-Experts-Modell mit 1,6 Billionen Parametern und 49 Milliarden aktivierten Parametern, sowie DeepSeek-V4-Flash, ein kleineres MoE-Modell mit 284 Milliarden Parametern und 13 Milliarden aktivierten Parametern. Beide Modelle unterstützen eine Kontextlänge von bis zu einer Million Tokens.
Google DeepMind hat Gemma 4 Anfang 2026 veroeffentlicht, und die 31B Instruktion-optimierte Variante trifft einen Sweetspot: gross genug, um bei Reasoning-Benchmarks mit proprietaren Modellen mitzuhalten, klein genug, um auf einer vernuenftigen Consumer-GPU zu laufen. Sie erzielt 85,2% bei MMLU Pro und 89,2% bei AIME 2026 ohne Werkzeuge -- das bringt sie in dieselbe Liga wie Modelle, die doppelt so gross sind.
Das lokale Ausführen von Kimi-K2-Instruct kann anfangs einschüchternd wirken – aber mit den richtigen Werkzeugen und Schritten ist es überraschend einfach. Egal, ob Sie Entwickler sind, der mit fortschrittlichen KI-Modellen experimentieren möchte, oder jemand, der volle Kontrolle über die Inferenz haben will, ohne auf Cloud-APIs angewiesen zu sein – dieser Leitfaden führt Sie Schritt für Schritt durch den gesamten Prozess.