Skip to main content
次世代大規模言語モデル

GLM 5

次世代大規模言語モデル

7450億パラメータ、440億活性化。エージェントAI、高度推論、フロンティア級パフォーマンスのため設計。コーディング、創作、複雑な問題解決をカバー。

745B パラメータ
44B 活性化 (MoE)
200K コンテキスト
MIT ライセンス

GLM-5とは

GLM-5は智譜AI(Z.ai)が開発した第五世代大規模言語モデルです。中国を代表するAI企業の一つである智譜AIが、約7450億総パラメータの混合専門家(MoE)アーキテクチャ、256専門家・トークンあたり8活性化(5.9%スパース)、推論あたり440億活性化パラメータで、エージェントAI・多段推論・フロンティア級性能を実現。コーディング、創作、複雑な問題解決に対応します。

智譜AIは2019年清華大学発のスタートアップとして、オープンソースAI研究をリードしています。2026年1月に香港IPOを完了し、約43.5億香港ドル(約5.58億米ドル)を調達、GLM-5の開発に直接投入。GLM-5は華為昇騰チップ上でMindSporeフレームワークを用いて全訓練され、米国製ハードウェアから完全に独立した、自立型AIインフラのマイルストーンとなっています。

概要

一覧

コーディング

コード生成・デバッグ・多言語理解に強みを持つ、ライフサイクル全体の開発パートナー。

エージェントAI

自律計画、ツール利用、ウェブ閲覧、多段ワークフロー。人的介入を最小化。

200K コンテキスト

効率的なスパース注意で、長文・コードベース・研究を単一セッションで処理。

オープン&コスト効率

MITライセンス見込み。API料金はGPT-5・Claudeの一部。Hugging Face、ModelScopeで提供。

主な能力

GLM-5ができること

五大領域で大きな進歩を実現し、大規模言語モデルの境界を押し広げます。

創作

長編・技術文書・マーケティング・学術まで、高品質でニュアンスのある創作コンテンツを生成。

コーディング

コード生成・デバッグ・多言語理解の大幅向上。開発ライフサイクル全体で強力なパートナー。

高度推論

フロンティア級の多段論理推論と複雑な問題解決。数学証明・科学分析・精密分析に対応。

エージェントAI

GLM-5の差別化の一つは組み込みエージェントアーキテクチャ。自律計画・ツール利用・ウェブ閲覧・多段ワークフローを人的介入最小で実現。

長コンテキスト処理

最大200Kトークンのコンテキストで、長文・論文・コードベース・動画文字起こしを単一セッションで処理・推論。

ユースケース

GLM-5の得意分野

エンドツーエンド開発

要件からデプロイまで、一つのモデルでフルスタック・バックエンドをライフサイクル全体でサポート。

AIエージェントと自動化

計画・閲覧・ツール呼び出し・多段ワークフローを管理するアシスタントを構築。長時間セッションに対応。

ドキュメントとレポート

プロンプトから技術ドキュメント・マーケティング文案・構造化レポートを直接生成。

研究と分析

200Kコンテキストで長論文・コードベース・複雑な分析タスクを推論。

開発AIエージェントオフィス・文書長コンテキストタスク

技術アーキテクチャ

GLM-5の構成

GLM-5は混合専門家(MoE)アーキテクチャで約7450億総パラメータ、256専門家・トークンあたり8活性化(5.9%スパース)、推論あたり440億活性化。前世代GLM-4.5の約2倍規模。DeepSeekスパース注意(DSA)で最大200Kトークンまで効率的に処理。華為昇騰チップ上でMindSporeにより全訓練し、米国半導体から完全独立。

総パラメータ 約7450億
活性化パラメータ 約440億
専門家構成 256中8活性化 (5.9%)
コンテキスト長 最大200Kトークン
注意機構 DeepSeek Sparse (DSA)
訓練ハードウェア 華為昇騰

GLM-5を選ぶ理由

競争優位

GLM-5は推論・コーディング・エージェントタスクでClaude OpusシリーズやGPT-5と競合。創作・マルチモーダルでGLM-4.7を上回るベンチマーク。

  • フロンティア級多段推論とエージェントAI。自律計画とツール利用。
  • 200Kトークンコンテキストと効率的スパース注意。能力とデプロイコストのバランス。
  • 華為昇騰で訓練(米国非依存)。MITオープンウェイト見込みで商用・ファインチューニング可能。
  • コスト効率のAPI(GLM-4.x 約$0.11/Mトークン)。GLM-5でもGPT-5・Claude対比で優位維持見込み。

オープンソースと料金

アクセスとコスト

智譜AIはモデルをオープンソース化する実績があり、GLM-4.7はHugging Faceで商用利用可能。GLM-5もMITライセンスで公開見込み。商用展開・ファインチューニング・コミュニティ研究を可能にします。

コスト効率はGLMシリーズの強み。GLM-4.x APIは約$0.11/100万トークンで、GPT-5の$1.25/M入力・$10/M出力を大きく下回ります。GLM-5でも同様の優位性を維持・強化する見込みです。

リリースタイムライン

主なマイルストーン

  • 2026年1月8日 — 智譜AIが香港IPOを完了、約43.5億香港ドル(約5.58億米ドル)を調達。
  • 2026年1月 — 華為昇騰上でGLM-5訓練が完了間近。内部テスト・評価開始。
  • 2026年2月中旬 — Z.aiプラットフォームとWaveSpeed APIでGLM-5利用開始。Claude Opusシリーズと競合ベンチマーク。
  • 2026年Q1 — API提供開始後、MITライセンスのオープンウェイトリリース見込み。

はじめに

GLM-5の使い方

1

APIアクセス

智譜AIのZ.aiプラットフォームまたはWaveSpeed APIでGLM-5にすぐアクセス。標準APIでアプリに統合。

2

オープンウェイト

オープンウェイト公開後、Hugging FaceまたはModelScopeからダウンロード。MITライセンス見込みでセルフホスト・ファインチューニング可能。

3

デプロイ

華為昇騰、Moore Threads、Cambricon、または標準GPUクラウドで実行。公式チャネルでドキュメントとサンプルを提供。

よくある質問

FAQ

GLM-5とは

GLM-5は智譜AIが開発した第五世代大規模言語モデル。MoEアーキテクチャで約7450億パラメータ、440億活性化。高度推論・コーディング・創作・エージェントAI向けで、前世代GLM-4.5を大きく上回ります。

GLM-5のリリース時期は

2026年2月中旬よりZ.aiプラットフォームとWaveSpeed APIで利用可能。MITオープンウェイトは2026年Q1に続く見込み。

GLM-5の開発元は

智譜AI(Z.ai)。2019年清華大学発。2026年1月に香港IPOで約43.5億香港ドル(約5.58億米ドル)を調達し、GLM-5開発に投入。

GLM-5とGPT-5の比較は

推論・エージェントタスクでGPT-5・Claude Opusに対抗し、低料金とオープンウェイトの可能性を提供。創作・マルチモーダルでGLM-4.7を上回り、200Kコンテキスト、華為昇騰で全訓練しハードウェア自立を実現。

GLM-5はオープンソースか

智譜AIはオープンソースの実績があり、GLM-4.7はHugging Faceで無料公開。GLM-5もMITライセンスのオープンウェイトとして公開見込み。商用・ファインチューニング・コミュニティ開発が可能。

GLM-5の訓練ハードウェアは

GLM-5は華為昇騰チップ上でMindSporeにより全訓練。米国製半導体から完全独立。国内AIインフラとフロンティア規模のコンピュートスタックのマイルストーン。

GLM-5を始める

Z.aiまたはWaveSpeed APIで今すぐGLM-5にアクセス。またはHugging Face・ModelScopeでオープンウェイトをダウンロード。ドキュメントでフロンティアAIを製品に統合。

始める