什麼是 GLM-5?
GLM-5 是智譜AI(Z.ai)推出的第五代大語言模型。智譜AI是中國領先的人工智能企業之一。GLM-5 代表了一次代際跨越:採用混合專家(MoE)架構,約 7450 億總參數,256 個專家、每 token 激活 8 個(稀疏率 5.9%),每次推理 440 億激活參數。GLM-5 面向智能體能力、多步推理與前沿級性能,在編程、創意寫作與複雜問題求解上全面發力。
智譜AI 2019 年自清華大學孵化,已成為開源 AI 研究的重要力量。2026 年 1 月智譜AI 完成香港 IPO,募資約 43.5 億港元(約 5.58 億美元),資金直接用於 GLM-5 等新一代模型研發。GLM-5 全程在華為昇騰芯片上基於 MindSpore 框架訓練,實現從美國製程硬件的完全獨立,既是技術突破,也是自主可控 AI 基礎設施的重要里程碑。
概覽
一覽
編程
全生命週期開發夥伴,具備強大的代碼生成、調試與多語言理解能力。
智能體能力
自主規劃、工具調用、網頁瀏覽與多步工作流,最小化人工干預。
200K 上下文
在單次會話中處理長文檔、代碼庫與研究資料,採用高效稀疏注意力。
開源與高性價比
預期 MIT 許可;API 定價遠低於 GPT-5 與 Claude。Hugging Face、ModelScope 可獲取。
核心能力
GLM-5 能做什麼
在五大關鍵領域實現顯著進步,不斷拓展大語言模型的能力邊界。
創意寫作
GLM-5 可生成高質量、富有層次的創意內容,風格多樣——從長篇敘事、技術文檔到營銷文案與學術寫作。
編程
在代碼生成、調試與多語言理解上大幅提升,GLM-5 可作為軟件工程師在全開發週期內的強力夥伴。
高級推理
GLM-5 具備前沿級多步邏輯推理與複雜問題求解能力,可應對數學證明、科學分析與精細分析任務。
智能體能力
GLM-5 的核心差異之一是其內置智能體架構——支持自主規劃、工具使用、網頁瀏覽與多步工作流管理,最大限度減少人工干預。
長上下文處理
GLM-5 支持超長上下文(最高 200K token),可在一輪會話中處理與推理長文檔、論文、代碼庫乃至視頻轉錄。
使用場景
GLM-5 的用武之地
端到端開發
從需求到上線——全棧與後端開發在一個模型內完成全生命週期支持。
AI 智能體與自動化
構建能規劃、瀏覽、調用工具並管理多步工作流的助手,支持長會話。
文檔與報告
從提示詞直接生成技術文檔、營銷文案與結構化報告。
研究與分析
依託 200K 上下文對長篇論文、代碼庫與複雜分析任務進行推理。
技術架構
GLM-5 如何構建
GLM-5 採用混合專家(MoE)架構,約 7450 億總參數,256 個專家、每 token 激活 8 個(5.9% 稀疏率),每次推理 440 億激活參數——規模約為前代 GLM-4.5 的兩倍。模型採用 DeepSeek 稀疏注意力(DSA)實現高效長上下文處理,支持最長 200K token 序列而無需傳統稠密注意力的算力開銷。GLM-5 全程在華為昇騰芯片上使用 MindSpore 訓練,實現從美國半導體硬件的完全獨立。
| 總參數 | 約 7450 億 |
| 激活參數 | 約 440 億 |
| 專家配置 | 256 個 / 激活 8 個 (5.9%) |
| 上下文長度 | 最高 200K token |
| 注意力機制 | DeepSeek 稀疏 (DSA) |
| 訓練硬件 | 華為昇騰 |
為什麼選 GLM-5
競爭優勢
GLM-5 在推理、編程與智能體任務上可與 Claude Opus 系列及 GPT-5 同台競技。基準測試顯示其在創意寫作與多模態領域較 GLM-4.7 有明顯提升。
- ✓ 前沿級多步推理與智能體能力,支持自主規劃與工具調用。
- ✓ 200K token 上下文與高效稀疏注意力,在能力與部署成本間取得平衡。
- ✓ 基於華為昇騰訓練(去美國化);預期 MIT 開源權重,支持商用部署與微調。
- ✓ 高性價比 API(GLM-4.x 約 0.11 美元/百萬 token);GLM-5 有望保持或強化相對 GPT-5、Claude 的成本優勢。
開源與定價
獲取方式與成本
智譜AI 長期堅持開源。GLM-4.7 已在 Hugging Face 免費開放商用。GLM-5 預計延續這一做法,預期以 MIT 許可發布,支持無限制商用部署、微調與社區研究。
成本優勢是 GLM 系列的核心之一。GLM-4.x API 約 0.11 美元/百萬 token,遠低於 GPT-5 的 1.25 美元/M 輸入與 10 美元/M 輸出。GLM-5 有望保持或進一步強化這一優勢,讓前沿 AI 觸達更多開發者與機構。
發布時間線
關鍵節點
- 2026 年 1 月 8 日 — 智譜AI 完成香港 IPO,募資約 43.5 億港元(約 5.58 億美元),用於新一代模型研發。
- 2026 年 1 月 — GLM-5 在華為昇騰上訓練接近完成,內部測試與評估啟動。
- 2026 年 2 月中旬 — GLM-5 通過 Z.ai 平台與 WaveSpeed API 開放使用,基準表現對標 Claude Opus 系列。
- 2026 年 Q1 — 預期在 API 首發後推出 MIT 許可的開放權重版本。
快速開始
如何使用 GLM-5
API 訪問
通過智譜AI 的 Z.ai 平台或 WaveSpeed API 即可使用 GLM-5,使用標準 API 接入您的應用。
開放權重
開放權重發布後,可從 Hugging Face 或 ModelScope 下載。預期 MIT 許可,支持自建與微調。
部署
可運行於華為昇騰、摩爾線程、寒武紀或通用 GPU 雲。官方渠道提供完整文檔與示例。
常見問題
FAQ
什麼是 GLM-5?
GLM-5 是智譜AI 推出的第五代大語言模型,採用混合專家(MoE)架構,約 7450 億參數、440 億激活參數。面向高級推理、編程、創意寫作與智能體能力,相對前代 GLM-4.5 實現顯著跨越。
GLM-5 何時發布?
GLM-5 已於 2026 年 2 月中旬通過 Z.ai 平台與 WaveSpeed API 開放使用,性能對標前沿模型。MIT 許可的開放權重版本預計在 2026 年 Q1 跟進。
GLM-5 由誰開發?
GLM-5 由智譜AI(Z.ai)開發。智譜AI 2019 年自清華大學孵化,是國內領先的 AI 公司。2026 年 1 月智譜AI 完成香港 IPO,募資約 43.5 億港元(約 5.58 億美元),直接用於 GLM-5 研發。
GLM-5 與 GPT-5 相比如何?
GLM-5 在推理與智能體任務上對標乃至超越 GPT-5 與 Claude Opus,同時提供更低定價與潛在開放權重。在創意寫作與多模態上較 GLM-4.7 有提升,具備 200K token 上下文,並全程在華為昇騰上訓練,實現硬件自主。
GLM-5 會開源嗎?
智譜AI 有持續開源傳統——GLM-4.7 已在 Hugging Face 免費開放。GLM-5 預期以 MIT 許可發布開放權重,支持免費商用、微調與社區開發。
GLM-5 使用什麼硬件訓練?
GLM-5 全程在華為昇騰芯片上使用 MindSpore 框架訓練,實現從美國製程半導體硬件的完全獨立。這是國產 AI 基礎設施與算力棧在前沿規模上的重要里程碑。
開始使用 GLM-5
即日通過 Z.ai 或 WaveSpeed API 使用 GLM-5,或待開放後在 Hugging Face、ModelScope 下載權重。查閱文檔,將前沿 AI 集成到您的產品中。
開始使用