什么是 GLM-5?
GLM-5 是智谱AI(Z.ai)推出的第五代大语言模型。智谱AI是中国领先的人工智能企业之一。GLM-5 代表了一次代际跨越:采用混合专家(MoE)架构,约 7450 亿总参数,256 个专家、每 token 激活 8 个(稀疏率 5.9%),每次推理 440 亿激活参数。GLM-5 面向智能体能力、多步推理与前沿级性能,在编程、创意写作与复杂问题求解上全面发力。
智谱AI 2019 年自清华大学孵化,已成为开源 AI 研究的重要力量。2026 年 1 月智谱AI 完成香港 IPO,募资约 43.5 亿港元(约 5.58 亿美元),资金直接用于 GLM-5 等新一代模型研发。GLM-5 全程在华为昇腾芯片上基于 MindSpore 框架训练,实现从美国制程硬件的完全独立,既是技术突破,也是自主可控 AI 基础设施的重要里程碑。
概览
一览
编程
全生命周期开发伙伴,具备强大的代码生成、调试与多语言理解能力。
智能体能力
自主规划、工具调用、网页浏览与多步工作流,最小化人工干预。
200K 上下文
在单次会话中处理长文档、代码库与研究资料,采用高效稀疏注意力。
开源与高性价比
预期 MIT 许可;API 定价远低于 GPT-5 与 Claude。Hugging Face、ModelScope 可获取。
核心能力
GLM-5 能做什么
在五大关键领域实现显著进步,不断拓展大语言模型的能力边界。
创意写作
GLM-5 可生成高质量、富有层次的创意内容,风格多样——从长篇叙事、技术文档到营销文案与学术写作。
编程
在代码生成、调试与多语言理解上大幅提升,GLM-5 可作为软件工程师在全开发周期内的强力伙伴。
高级推理
GLM-5 具备前沿级多步逻辑推理与复杂问题求解能力,可应对数学证明、科学分析与精细分析任务。
智能体能力
GLM-5 的核心差异之一是其内置智能体架构——支持自主规划、工具使用、网页浏览与多步工作流管理,最大限度减少人工干预。
长上下文处理
GLM-5 支持超长上下文(最高 200K token),可在一轮会话中处理与推理长文档、论文、代码库乃至视频转录。
使用场景
GLM-5 的用武之地
端到端开发
从需求到上线——全栈与后端开发在一个模型内完成全生命周期支持。
AI 智能体与自动化
构建能规划、浏览、调用工具并管理多步工作流的助手,支持长会话。
文档与报告
从提示词直接生成技术文档、营销文案与结构化报告。
研究与分析
依托 200K 上下文对长篇论文、代码库与复杂分析任务进行推理。
技术架构
GLM-5 如何构建
GLM-5 采用混合专家(MoE)架构,约 7450 亿总参数,256 个专家、每 token 激活 8 个(5.9% 稀疏率),每次推理 440 亿激活参数——规模约为前代 GLM-4.5 的两倍。模型采用 DeepSeek 稀疏注意力(DSA)实现高效长上下文处理,支持最长 200K token 序列而无需传统稠密注意力的算力开销。GLM-5 全程在华为昇腾芯片上使用 MindSpore 训练,实现从美国半导体硬件的完全独立。
| 总参数 | 约 7450 亿 |
| 激活参数 | 约 440 亿 |
| 专家配置 | 256 个 / 激活 8 个 (5.9%) |
| 上下文长度 | 最高 200K token |
| 注意力机制 | DeepSeek 稀疏 (DSA) |
| 训练硬件 | 华为昇腾 |
为什么选 GLM-5
竞争优势
GLM-5 在推理、编程与智能体任务上可与 Claude Opus 系列及 GPT-5 同台竞技。基准测试显示其在创意写作与多模态领域较 GLM-4.7 有明显提升。
- ✓ 前沿级多步推理与智能体能力,支持自主规划与工具调用。
- ✓ 200K token 上下文与高效稀疏注意力,在能力与部署成本间取得平衡。
- ✓ 基于华为昇腾训练(去美国化);预期 MIT 开源权重,支持商用部署与微调。
- ✓ 高性价比 API(GLM-4.x 约 0.11 美元/百万 token);GLM-5 有望保持或强化相对 GPT-5、Claude 的成本优势。
开源与定价
获取方式与成本
智谱AI 长期坚持开源。GLM-4.7 已在 Hugging Face 免费开放商用。GLM-5 预计延续这一做法,预期以 MIT 许可发布,支持无限制商用部署、微调与社区研究。
成本优势是 GLM 系列的核心之一。GLM-4.x API 约 0.11 美元/百万 token,远低于 GPT-5 的 1.25 美元/M 输入与 10 美元/M 输出。GLM-5 有望保持或进一步强化这一优势,让前沿 AI 触达更多开发者与机构。
发布时间线
关键节点
- 2026 年 1 月 8 日 — 智谱AI 完成香港 IPO,募资约 43.5 亿港元(约 5.58 亿美元),用于新一代模型研发。
- 2026 年 1 月 — GLM-5 在华为昇腾上训练接近完成,内部测试与评估启动。
- 2026 年 2 月中旬 — GLM-5 通过 Z.ai 平台与 WaveSpeed API 开放使用,基准表现对标 Claude Opus 系列。
- 2026 年 Q1 — 预期在 API 首发后推出 MIT 许可的开放权重版本。
快速开始
如何使用 GLM-5
API 访问
通过智谱AI 的 Z.ai 平台或 WaveSpeed API 即可使用 GLM-5,使用标准 API 接入您的应用。
开放权重
开放权重发布后,可从 Hugging Face 或 ModelScope 下载。预期 MIT 许可,支持自建与微调。
部署
可运行于华为昇腾、摩尔线程、寒武纪或通用 GPU 云。官方渠道提供完整文档与示例。
常见问题
FAQ
什么是 GLM-5?
GLM-5 是智谱AI 推出的第五代大语言模型,采用混合专家(MoE)架构,约 7450 亿参数、440 亿激活参数。面向高级推理、编程、创意写作与智能体能力,相对前代 GLM-4.5 实现显著跨越。
GLM-5 何时发布?
GLM-5 已于 2026 年 2 月中旬通过 Z.ai 平台与 WaveSpeed API 开放使用,性能对标前沿模型。MIT 许可的开放权重版本预计在 2026 年 Q1 跟进。
GLM-5 由谁开发?
GLM-5 由智谱AI(Z.ai)开发。智谱AI 2019 年自清华大学孵化,是国内领先的 AI 公司。2026 年 1 月智谱AI 完成香港 IPO,募资约 43.5 亿港元(约 5.58 亿美元),直接用于 GLM-5 研发。
GLM-5 与 GPT-5 相比如何?
GLM-5 在推理与智能体任务上对标乃至超越 GPT-5 与 Claude Opus,同时提供更低定价与潜在开放权重。在创意写作与多模态上较 GLM-4.7 有提升,具备 200K token 上下文,并全程在华为昇腾上训练,实现硬件自主。
GLM-5 会开源吗?
智谱AI 有持续开源传统——GLM-4.7 已在 Hugging Face 免费开放。GLM-5 预期以 MIT 许可发布开放权重,支持免费商用、微调与社区开发。
GLM-5 使用什么硬件训练?
GLM-5 全程在华为昇腾芯片上使用 MindSpore 框架训练,实现从美国制程半导体硬件的完全独立。这是国产 AI 基础设施与算力栈在前沿规模上的重要里程碑。
开始使用 GLM-5
即日通过 Z.ai 或 WaveSpeed API 使用 GLM-5,或待开放后在 Hugging Face、ModelScope 下载权重。查阅文档,将前沿 AI 集成到您的产品中。
开始使用