Skip to main content
Modelo de linguagem de próxima geração

GLM 5

Modelo de linguagem de próxima geração

745B parâmetros, 44B ativos. Projetado para IA agente, raciocínio avançado e desempenho de fronteira. Código, criatividade, resolução de problemas complexos.

745B parâmetros
44B ativos (MoE)
200K contexto
Licença MIT

O que é GLM-5

GLM-5 é o modelo de linguagem de quinta geração da Zhipu AI (Z.ai). ~745B parâmetros MoE, 256 especialistas, 8 ativos por token (5,9% esparso), 44B ativos por inferência, para IA agente, raciocínio multietapa e desempenho de fronteira em código, criatividade e resolução de problemas complexos.

Zhipu AI (2019, Tsinghua) lidera em IA open source. IPO em Hong Kong em janeiro 2026, ~4,35 bi HKD (~558 mi USD) para GLM-5. Treinado integralmente em Huawei Ascend com MindSpore, independente de hardware dos EUA.

Visão geral

Em resumo

Código

Parceiro de desenvolvimento em todo o ciclo, forte em geração de código, depuração e multilingue.

IA agente

Planejamento autônomo, uso de ferramentas, navegação web e fluxos multietapa com mínima intervenção humana.

200K contexto

Atenção esparsa eficiente para textos longos, bases de código e pesquisa em uma sessão.

Aberto e econômico

Licença MIT prevista. API mais barata que GPT-5/Claude. Hugging Face, ModelScope.

Capacidades principais

O que o GLM-5 oferece

Avanços em cinco domínios e expansão dos limites dos LLMs.

Criativo

De texto longo a documentação técnica, marketing e acadêmica: conteúdo de alta qualidade e nuance.

Código

Grande melhoria em geração de código, depuração e multilingue; parceiro em todo o ciclo.

Raciocínio avançado

Lógica multietapa de fronteira e resolução de problemas complexos: provas, ciência, análise precisa.

IA agente

Arquitetura agente integrada: planejamento autônomo, ferramentas, navegação web e fluxos multietapa com mínima intervenção.

Contexto longo

Até 200K tokens: documentos longos, artigos, bases de código e transcrições em uma sessão.

Casos de uso

Onde o GLM-5 brilha

Desenvolvimento de ponta a ponta

De requisitos a implantação: um modelo para full-stack e backend em todo o ciclo.

Agentes IA e automação

Assistentes com planejamento, navegação, chamadas a ferramentas e fluxos multietapa; sessões longas.

Documentação e relatórios

Gerar a partir de prompts documentação técnica, textos de marketing e relatórios estruturados.

Pesquisa e análise

Com 200K contexto, raciocinar sobre artigos longos, bases de código e análises complexas em uma sessão.

DesenvolvimentoAgentes IAEscritório e documentosContexto longo

Arquitetura técnica

Como o GLM-5 é construído

MoE com ~745B parâmetros, 256 especialistas, 8 ativos por token (5,9%), 44B ativos por inferência; cerca do dobro do GLM-4.5. DeepSeek Sparse Attention (DSA) até 200K tokens. Treinado integralmente em Huawei Ascend com MindSpore, independente de chips dos EUA.

Parâmetros totais ~745B
Parâmetros ativos ~44B
Configuração de especialistas 256, 8 ativos (5,9%)
Janela de contexto Até 200K tokens
Atenção DeepSeek Sparse (DSA)
Hardware de treinamento Huawei Ascend

Por que GLM-5

Vantagem competitiva

GLM-5 compete em raciocínio, código e tarefas agente com Claude Opus e GPT-5; supera GLM-4.7 em criatividade e multimodal.

  • Raciocínio multietapa de fronteira e IA agente: planejamento autônomo e uso de ferramentas.
  • Contexto 200K e atenção esparsa eficiente; equilíbrio entre capacidade e custo de implantação.
  • Treinado em Huawei Ascend (independente dos EUA). Open weights MIT previstos: comercial e fine-tuning.
  • API econômica (GLM-4.x ~0,11 $/M tokens). GLM-5 manterá vantagem frente a GPT-5/Claude.

Open source e preços

Acesso e custo

Zhipu tem histórico open source; GLM-4.7 está no Hugging Face para uso comercial. GLM-5 seguirá com MIT: comercial, fine-tuning e comunidade.

Custo-benefício é uma força da série GLM. API GLM-4.x ~0,11 $/M tokens, bem mais barata que GPT-5. GLM-5 manterá.

Cronograma de lançamento

Marcos

  • 8 jan 2026 — Zhipu AI conclui IPO em Hong Kong, ~4,35 bi HKD (~558 mi USD).
  • Jan 2026 — Treinamento do GLM-5 na Ascend quase completo; testes e avaliação internos.
  • Meados fev 2026 — GLM-5 no Z.ai e WaveSpeed API; benchmarks contra Claude Opus.
  • T1 2026 — Após lançamento da API, previsão de release de open weights MIT.

Começar

Como usar o GLM-5

1

Acesso por API

Use a plataforma Z.ai da Zhipu ou WaveSpeed API para acesso imediato ao GLM-5; API padrão para integrar em apps.

2

Open weights

Baixar do Hugging Face ou ModelScope após publicação; MIT previsto: self-hosting e fine-tuning.

3

Implantar

Executar em Huawei Ascend, Moore Threads, Cambricon ou nuvem GPU padrão; documentação e exemplos nos canais oficiais.

Perguntas frequentes

FAQ

O que é GLM-5

GLM-5 é o modelo de linguagem de quinta geração da Zhipu AI: MoE, ~745B parâmetros, 44B ativos, para raciocínio avançado, código, criatividade e IA agente; claramente acima do GLM-4.5.

Quando sai o GLM-5

A partir de meados de fevereiro 2026 no Z.ai e WaveSpeed API. Open weights MIT previstos no T1 2026.

Quem desenvolve o GLM-5

Zhipu AI (Z.ai), 2019 a partir da Tsinghua. IPO Hong Kong janeiro 2026, ~4,35 bi HKD para GLM-5.

GLM-5 vs GPT-5

Competitivo em raciocínio e agente frente a GPT-5/Claude Opus, com preços mais baixos e open weights. Supera GLM-4.7 em criatividade/multimodal; 200K contexto; treinado na Ascend, independente de hardware.

O GLM-5 é open source?

Zhipu tem histórico open source; GLM-4.7 no Hugging Face gratuito. GLM-5 previsto com open weights MIT: comercial, fine-tuning, comunidade.

Em que hardware o GLM-5 foi treinado

Integralmente em Huawei Ascend com MindSpore, independente de chips dos EUA; marco para infraestrutura IA local.

Começar com GLM-5

Acesse o GLM-5 agora pelo Z.ai ou WaveSpeed API, ou baixe open weights do Hugging Face/ModelScope. Documentação para integrar em produtos.

Começar