DeepSeek-V4 adalah salah satu rilis model open-weight paling ambisius dari DeepSeek sejauh ini. Keluarga ini mencakup DeepSeek-V4-Pro, model Mixture-of-Experts dengan 1,6T parameter dan 49B parameter yang diaktifkan, serta DeepSeek-V4-Flash, model MoE yang lebih kecil dengan 284B parameter dan 13B parameter yang diaktifkan. Kedua model mendukung panjang konteks hingga satu juta token.
Google DeepMind merilis Gemma 4 di awal 2026, dan varian instruction-tuned 31B-nya ada di titik yang pas: cukup besar untuk bersaing dengan model proprietary di benchmark reasoning, cukup kecil untuk dijalankan di GPU konsumen yang layak. Dia mendapat skor 85.2% di MMLU Pro dan 89.2% di AIME 2026 tanpa tools, yang menempatkannya di liga yang sama dengan model dua kali ukurannya.
Menjalankan Kimi-K2-Instruct secara lokal mungkin terlihat menakutkan pada awalnya — tetapi dengan alat dan langkah yang tepat, ini ternyata cukup mudah. Baik Anda seorang pengembang yang ingin bereksperimen dengan model AI canggih atau seseorang yang ingin kendali penuh atas inferensi tanpa bergantung pada API cloud, panduan ini akan memandu Anda melalui seluruh proses langkah demi langkah.