GLM 5
Modèle de langage nouvelle génération
745B paramètres, 44B actifs. Conçu pour l’IA agent, le raisonnement avancé et les performances de pointe. Code, créativité, résolution de problèmes complexes.
Qu’est-ce que GLM-5
GLM-5 est le modèle de langage de cinquième génération de Zhipu AI (Z.ai). ~745B paramètres MoE, 256 experts, 8 actifs par token (5,9 % sparse), 44B actifs par inférence, pour l’IA agent, le raisonnement multi-étapes et les performances de pointe en code, créativité et résolution de problèmes complexes.
Zhipu AI (2019, Tsinghua) est leader en IA open source. IPO à Hong Kong en janvier 2026, ~4,35 Md HKD (~558 M USD) pour GLM-5. Entraînement entièrement sur Huawei Ascend avec MindSpore, indépendant du matériel américain.
Résumé
En un coup d’œil
Code
Fort en génération de code, débogage et multilingue ; partenaire sur tout le cycle de développement.
IA agent
Planification autonome, utilisation d’outils, navigation web et flux multi-étapes avec intervention humaine minimale.
200K contexte
Attention sparse efficace pour textes longs, bases de code et recherche en une seule session.
Ouvert et rentable
Licence MIT prévue. API moins chère que GPT-5/Claude. Hugging Face, ModelScope.
Capacités clés
Ce que GLM-5 peut faire
Grandes avancées dans cinq domaines et extension des limites des LLM.
Créatif
Du long format à la doc technique, marketing et académique : contenu de haute qualité et nuancé.
Code
Forte amélioration en génération de code, débogage et multilingue ; partenaire sur tout le cycle.
Raisonnement avancé
Logique multi-étapes de pointe et résolution de problèmes complexes : preuves, science, analyse précise.
IA agent
Architecture agent intégrée : planification autonome, outils, navigation web et flux multi-étapes avec intervention minimale.
Contexte long
Jusqu’à 200K tokens : documents longs, articles, bases de code et transcriptions en une session.
Cas d’usage
Où brille GLM-5
Développement de bout en bout
Des exigences au déploiement : un modèle pour full-stack et backend sur tout le cycle.
Agents IA et automatisation
Assistants avec planification, navigation, appels d’outils et flux multi-étapes ; sessions longues.
Documentation et rapports
Générer depuis des prompts de la doc technique, textes marketing et rapports structurés.
Recherche et analyse
Avec 200K contexte, raisonner sur articles longs, bases de code et analyses complexes en une session.
Architecture technique
Comment GLM-5 est construit
MoE ~745B paramètres, 256 experts, 8 actifs par token (5,9 %), 44B actifs par inférence ; environ le double de GLM-4.5. DeepSeek Sparse Attention (DSA) jusqu’à 200K tokens. Entraînement complet sur Huawei Ascend avec MindSpore, indépendant des puces américaines.
| Paramètres totaux | ~745B |
| Paramètres actifs | ~44B |
| Configuration des experts | 256, 8 actifs (5,9 %) |
| Longueur de contexte | Jusqu’à 200K tokens |
| Attention | DeepSeek Sparse (DSA) |
| Matériel d’entraînement | Huawei Ascend |
Pourquoi GLM-5
Avantages concurrentiels
GLM-5 rivalise en raisonnement, code et tâches agent avec Claude Opus et GPT-5 ; dépasse GLM-4.7 en créativité et multimodal.
- ✓ Raisonnement multi-étapes de pointe et IA agent : planification autonome et utilisation d’outils.
- ✓ Contexte 200K et attention sparse efficace ; équilibre capacité et coût de déploiement.
- ✓ Entraîné sur Huawei Ascend (non dépendant des États-Unis). Open weights MIT prévus : commercial et fine-tuning.
- ✓ API rentable (GLM-4.x ~0,11 $/M tokens). GLM-5 conservera l’avantage face à GPT-5/Claude.
Open source et tarifs
Accès et coût
Zhipu a un passé open source ; GLM-4.7 est sur Hugging Face pour usage commercial. GLM-5 suivra en MIT : commercial, fine-tuning et communauté.
La rentabilité est une force de la série GLM. API GLM-4.x ~0,11 $/M tokens, bien moins chère que GPT-5. GLM-5 maintiendra.
Calendrier de sortie
Jalons
- 8 janv. 2026 — Zhipu AI finalise l’IPO à Hong Kong, ~4,35 Md HKD (~558 M USD).
- Janv. 2026 — Entraînement GLM-5 sur Ascend presque terminé ; tests et évaluation internes.
- Mi-fév. 2026 — GLM-5 sur Z.ai et WaveSpeed API ; benchmarks face à Claude Opus.
- T1 2026 — Après le lancement de l’API, sortie prévue des open weights MIT.
Premiers pas
Comment utiliser GLM-5
Accès API
Utiliser GLM-5 immédiatement via Zhipu Z.ai ou WaveSpeed API ; API standard pour intégration dans les apps.
Open weights
Télécharger depuis Hugging Face ou ModelScope après publication ; MIT prévu : self-hosting et fine-tuning.
Déploiement
Exécuter sur Huawei Ascend, Moore Threads, Cambricon ou cloud GPU standard ; docs et exemples via canaux officiels.
Questions fréquentes
FAQ
Qu’est-ce que GLM-5
GLM-5 est le modèle de langage de cinquième génération de Zhipu AI : MoE, ~745B paramètres, 44B actifs, pour raisonnement avancé, code, créativité et IA agent ; nettement au-dessus de GLM-4.5.
Quand sort GLM-5
À partir de mi-février 2026 sur Z.ai et WaveSpeed API. Open weights MIT prévus au T1 2026.
Qui développe GLM-5
Zhipu AI (Z.ai), 2019 depuis Tsinghua. IPO Hong Kong janvier 2026, ~4,35 Md HKD pour GLM-5.
GLM-5 vs GPT-5
Compétitif en raisonnement et agent face à GPT-5/Claude Opus, avec prix plus bas et open weights. Dépasse GLM-4.7 en créativité/multimodal ; 200K contexte ; entraîné sur Ascend, indépendant du matériel.
GLM-5 est-il open source
Zhipu a un passé open source ; GLM-4.7 sur Hugging Face gratuit. GLM-5 prévu en open weights MIT : commercial, fine-tuning, communauté.
Sur quel matériel GLM-5 a été entraîné
Entièrement sur Huawei Ascend avec MindSpore, indépendant des puces américaines ; jalon pour l’infrastructure IA locale.
Démarrer avec GLM-5
Accéder à GLM-5 maintenant via Z.ai ou WaveSpeed API, ou télécharger les open weights depuis Hugging Face/ModelScope. Documentation pour intégration dans les produits.
Commencer