Skip to main content
Modèle de langage nouvelle génération

GLM 5

Modèle de langage nouvelle génération

745B paramètres, 44B actifs. Conçu pour l’IA agent, le raisonnement avancé et les performances de pointe. Code, créativité, résolution de problèmes complexes.

745B paramètres
44B actifs (MoE)
200K contexte
Licence MIT

Qu’est-ce que GLM-5

GLM-5 est le modèle de langage de cinquième génération de Zhipu AI (Z.ai). ~745B paramètres MoE, 256 experts, 8 actifs par token (5,9 % sparse), 44B actifs par inférence, pour l’IA agent, le raisonnement multi-étapes et les performances de pointe en code, créativité et résolution de problèmes complexes.

Zhipu AI (2019, Tsinghua) est leader en IA open source. IPO à Hong Kong en janvier 2026, ~4,35 Md HKD (~558 M USD) pour GLM-5. Entraînement entièrement sur Huawei Ascend avec MindSpore, indépendant du matériel américain.

Résumé

En un coup d’œil

Code

Fort en génération de code, débogage et multilingue ; partenaire sur tout le cycle de développement.

IA agent

Planification autonome, utilisation d’outils, navigation web et flux multi-étapes avec intervention humaine minimale.

200K contexte

Attention sparse efficace pour textes longs, bases de code et recherche en une seule session.

Ouvert et rentable

Licence MIT prévue. API moins chère que GPT-5/Claude. Hugging Face, ModelScope.

Capacités clés

Ce que GLM-5 peut faire

Grandes avancées dans cinq domaines et extension des limites des LLM.

Créatif

Du long format à la doc technique, marketing et académique : contenu de haute qualité et nuancé.

Code

Forte amélioration en génération de code, débogage et multilingue ; partenaire sur tout le cycle.

Raisonnement avancé

Logique multi-étapes de pointe et résolution de problèmes complexes : preuves, science, analyse précise.

IA agent

Architecture agent intégrée : planification autonome, outils, navigation web et flux multi-étapes avec intervention minimale.

Contexte long

Jusqu’à 200K tokens : documents longs, articles, bases de code et transcriptions en une session.

Cas d’usage

Où brille GLM-5

Développement de bout en bout

Des exigences au déploiement : un modèle pour full-stack et backend sur tout le cycle.

Agents IA et automatisation

Assistants avec planification, navigation, appels d’outils et flux multi-étapes ; sessions longues.

Documentation et rapports

Générer depuis des prompts de la doc technique, textes marketing et rapports structurés.

Recherche et analyse

Avec 200K contexte, raisonner sur articles longs, bases de code et analyses complexes en une session.

DéveloppementAgents IABureau et documentsContexte long

Architecture technique

Comment GLM-5 est construit

MoE ~745B paramètres, 256 experts, 8 actifs par token (5,9 %), 44B actifs par inférence ; environ le double de GLM-4.5. DeepSeek Sparse Attention (DSA) jusqu’à 200K tokens. Entraînement complet sur Huawei Ascend avec MindSpore, indépendant des puces américaines.

Paramètres totaux ~745B
Paramètres actifs ~44B
Configuration des experts 256, 8 actifs (5,9 %)
Longueur de contexte Jusqu’à 200K tokens
Attention DeepSeek Sparse (DSA)
Matériel d’entraînement Huawei Ascend

Pourquoi GLM-5

Avantages concurrentiels

GLM-5 rivalise en raisonnement, code et tâches agent avec Claude Opus et GPT-5 ; dépasse GLM-4.7 en créativité et multimodal.

  • Raisonnement multi-étapes de pointe et IA agent : planification autonome et utilisation d’outils.
  • Contexte 200K et attention sparse efficace ; équilibre capacité et coût de déploiement.
  • Entraîné sur Huawei Ascend (non dépendant des États-Unis). Open weights MIT prévus : commercial et fine-tuning.
  • API rentable (GLM-4.x ~0,11 $/M tokens). GLM-5 conservera l’avantage face à GPT-5/Claude.

Open source et tarifs

Accès et coût

Zhipu a un passé open source ; GLM-4.7 est sur Hugging Face pour usage commercial. GLM-5 suivra en MIT : commercial, fine-tuning et communauté.

La rentabilité est une force de la série GLM. API GLM-4.x ~0,11 $/M tokens, bien moins chère que GPT-5. GLM-5 maintiendra.

Calendrier de sortie

Jalons

  • 8 janv. 2026 — Zhipu AI finalise l’IPO à Hong Kong, ~4,35 Md HKD (~558 M USD).
  • Janv. 2026 — Entraînement GLM-5 sur Ascend presque terminé ; tests et évaluation internes.
  • Mi-fév. 2026 — GLM-5 sur Z.ai et WaveSpeed API ; benchmarks face à Claude Opus.
  • T1 2026 — Après le lancement de l’API, sortie prévue des open weights MIT.

Premiers pas

Comment utiliser GLM-5

1

Accès API

Utiliser GLM-5 immédiatement via Zhipu Z.ai ou WaveSpeed API ; API standard pour intégration dans les apps.

2

Open weights

Télécharger depuis Hugging Face ou ModelScope après publication ; MIT prévu : self-hosting et fine-tuning.

3

Déploiement

Exécuter sur Huawei Ascend, Moore Threads, Cambricon ou cloud GPU standard ; docs et exemples via canaux officiels.

Questions fréquentes

FAQ

Qu’est-ce que GLM-5

GLM-5 est le modèle de langage de cinquième génération de Zhipu AI : MoE, ~745B paramètres, 44B actifs, pour raisonnement avancé, code, créativité et IA agent ; nettement au-dessus de GLM-4.5.

Quand sort GLM-5

À partir de mi-février 2026 sur Z.ai et WaveSpeed API. Open weights MIT prévus au T1 2026.

Qui développe GLM-5

Zhipu AI (Z.ai), 2019 depuis Tsinghua. IPO Hong Kong janvier 2026, ~4,35 Md HKD pour GLM-5.

GLM-5 vs GPT-5

Compétitif en raisonnement et agent face à GPT-5/Claude Opus, avec prix plus bas et open weights. Dépasse GLM-4.7 en créativité/multimodal ; 200K contexte ; entraîné sur Ascend, indépendant du matériel.

GLM-5 est-il open source

Zhipu a un passé open source ; GLM-4.7 sur Hugging Face gratuit. GLM-5 prévu en open weights MIT : commercial, fine-tuning, communauté.

Sur quel matériel GLM-5 a été entraîné

Entièrement sur Huawei Ascend avec MindSpore, indépendant des puces américaines ; jalon pour l’infrastructure IA locale.

Démarrer avec GLM-5

Accéder à GLM-5 maintenant via Z.ai ou WaveSpeed API, ou télécharger les open weights depuis Hugging Face/ModelScope. Documentation pour intégration dans les produits.

Commencer