DeepSeekモデルの進化:DeepSeek-V3 vs DeepSeek-V3-0324
DeepSeek AIチームは、フラッグシップの言語モデルを引き続き洗練させており、DeepSeek-V3-0324(2025年3月リリース)は、元のDeepSeek-V3(2024年12月)に対する重要なアップグレードを表しています。両モデルはMixture-of-Experts(MoE)アーキテクチャを採用していますが、パフォーマンス、アクセシビリティ、技術的最適化において異なります。
コアアーキテクチャの違い
特徴 | DeepSeek-V3 | DeepSeek-V3-0324 |
---|---|---|
総パラメータ数 | 671B | 685B |
アクティブパラメータ | 1トークンあたり37B | 1トークンあたり37B |
トレーニングデータ | 14.8Tトークン | MITライセンスの拡張コーパス |
推論速度 | ~20トークン/秒(ハイエンドGPU上) | リアルタイム応答に最適化 |
ライセンス | カスタム | MIT |
約1分