DeepSeek-V4 to jedna z najbardziej ambitnych otwartych wersji modeli z wagami od DeepSeek do tej pory. Rodzina obejmuje DeepSeek-V4-Pro, model Mixture-of-Experts (MoE) o 1,6 biliona parametrów z 49 miliardami aktywowanych parametrów, oraz DeepSeek-V4-Flash, mniejszy model MoE o 284 miliardach parametrów z 13 miliardami aktywowanych parametrów. Oba modele obsługują długość kontekstu do jednego miliona tokenów.
Google DeepMind wypuscilo Gemma 4 na poczatku 2026 roku, a 31-miliardowa wersja z instrukcjami trafia w sam punkt: wystarczajaco duza, zeby konkurowac z modelami komercyjnymi w testach rozumowania, i wystarczajaco mala, zeby chodzic na przyzwoitej konsumenckiej karcie graficznej. Osiaga 85,2% na MMLU Pro i 89,2% na AIME 2026 bez narzedzi, co stawia ja w jednym rzadku z modelami dwa razy wiekszymi od niej.
Uruchomienie Kimi-K2-Instruct lokalnie może na początku wydawać się trudne — ale z odpowiednimi narzędziami i krokami jest to zaskakująco proste. Niezależnie od tego, czy jesteś deweloperem chcącym eksperymentować z zaawansowanymi modelami AI, czy osobą, która chce mieć pełną kontrolę nad inferencją bez polegania na chmurowych API, ten przewodnik przeprowadzi Cię przez cały proces krok po kroku.