Gdy Zhipu AI wypuściło GLM-4.7 w grudniu 2025 roku, społeczność open-source AI zareagowała entuzjastycznie. To nie była kolejna drobna aktualizacja — to był znaczący skok w modelach językowych z otwartymi wagami, szczególnie w zakresie możliwości kodowania i agentowych workflow. Jako ktoś, kto uważnie śledzi krajobraz modeli MoE (Mixture of Experts), wiedziałem, że muszę zdobyć GLM-4.7-Flash, lekką wersję zoptymalizowaną pod kątem szybkiego wnioskowania.
Około 13 minut
Kiedy Z.ai (dawniej Zhipu AI) wypuściło GLM-Image w styczniu 2026, nie dodali po prostu kolejnego modelu do zatłoczonej przestrzeni generowania obrazów — zasadniczo zakwestionowali założenia architektoniczne, które dominowały w tej dziedzinie. GLM-Image łączy 9-miliardowy model językowy autoregresyjny z 7-miliardowym dekoderem dyfuzyjnym, tworząc hybrydowy system o 16 miliardach parametrów, który osiąga coś niezwykłego: jest to pierwszy otwartoźródłowy, przemysłowej klasy dyskretny autoregresyjny model generowania obrazów, który faktycznie rywalizuje z własnościowymi gigantami w określonych zdolnościach, będąc jednocześnie dostępny za darmo dla każdego do używania i modyfikacji.
Około 13 minut