DeepSeek-V4 ist eine der ambitioniertesten Open-Weight-Modellveröffentlichungen von DeepSeek bisher. Die Familie umfasst DeepSeek-V4-Pro, ein Mixture-of-Experts-Modell mit 1,6 Billionen Parametern und 49 Milliarden aktivierten Parametern, sowie DeepSeek-V4-Flash, ein kleineres MoE-Modell mit 284 Milliarden Parametern und 13 Milliarden aktivierten Parametern. Beide Modelle unterstützen eine Kontextlänge von bis zu einer Million Tokens.
- Blogs167
- Standorte24
- Beste von8
- Beste7
- Best of6
- Bewertungen5
- Pricing3
- KI3
- AI2
- Python1
- Deep Learning1
- AI Models1
- Design Tools1
- Image Editing1
Ungefähr 8 min
Einführung
GLM-5 ist das neueste Open-Source-Großsprachmodell von Z.ai mit insgesamt 744 Milliarden Parametern (davon 40 Milliarden aktiv) und einer MoE-Architektur. Dieses leistungsstarke Modell überzeugt durch exzellentes logisches Denken, Programmieren und agentische Aufgaben und gehört damit zu den besten Open-Source-LLMs, die heute verfügbar sind.
Ungefähr 5 min