DeepSeek-V4 adalah salah satu rilis model open-weight paling ambisius dari DeepSeek sejauh ini. Keluarga ini mencakup DeepSeek-V4-Pro, model Mixture-of-Experts dengan 1,6T parameter dan 49B parameter yang diaktifkan, serta DeepSeek-V4-Flash, model MoE yang lebih kecil dengan 284B parameter dan 13B parameter yang diaktifkan. Kedua model mendukung panjang konteks hingga satu juta token.
Sekitar 7 menit