Lorsque Zhipu AI a publié GLM-4.7 en décembre 2025, la communauté open-source de l’IA a été en effervescence. Ce n’était pas une simple mise à jour incrémentale — c’était un saut significatif dans les modèles de langage à poids ouverts, notamment en capacités de codage et en workflows agentiques. En tant que personne suivant de près le paysage des modèles MoE (Mixture of Experts), je savais que je devais mettre la main sur GLM-4.7-Flash, la variante légère optimisée pour une inférence rapide.
Lorsque Z.ai (anciennement Zhipu AI) a lancé GLM-Image en janvier 2026, ils n’ont pas simplement ajouté un modèle de plus dans l’espace déjà saturé de la génération d’images — ils ont fondamentalement remis en question les hypothèses architecturales qui dominent ce domaine. GLM-Image combine un modèle de langage autoregressif de 9 milliards de paramètres avec un décodeur de diffusion de 7 milliards de paramètres, créant ainsi un système hybride de 16 milliards de paramètres qui réalise quelque chose de remarquable : c’est le premier modèle open source, de qualité industrielle, de génération d’images discrètes autoregressif capable de rivaliser avec les géants propriétaires sur certaines capacités spécifiques tout en étant librement accessible et modifiable par tous.