Cuando Zhipu AI lanzó GLM-4.7 en diciembre de 2025, la comunidad de IA de código abierto se llenó de entusiasmo. No era solo una actualización incremental, sino un salto significativo en modelos de lenguaje de pesos abiertos, especialmente en capacidades de codificación y flujos de trabajo agenticos. Como alguien que ha seguido de cerca el panorama de modelos MoE (Mixture of Experts), sabía que tenía que probar GLM-4.7-Flash, la variante ligera optimizada para inferencia rápida.
Alrededor de 14 min
Cuando Z.ai (antes Zhipu AI) lanzó GLM-Image en enero de 2026, no solo añadieron otro modelo al saturado espacio de generación de imágenes, sino que desafiaron fundamentalmente las suposiciones arquitectónicas que han dominado el campo. GLM-Image combina un modelo de lenguaje autoregresivo de 9 mil millones de parámetros con un decodificador de difusión de 7 mil millones de parámetros, creando un sistema híbrido de 16 mil millones de parámetros que logra algo notable: es el primer modelo de generación de imágenes discreto autoregresivo de grado industrial open-source que realmente rivaliza con gigantes propietarios en capacidades específicas, y está disponible gratuitamente para que cualquiera lo use y modifique.
Alrededor de 15 min