关于GLM-5
GLM-5 是一款面向复杂系统工程和长时间自主任务的下一代开源模型,扩展到约744B稀疏参数(约40B激活)和约28.5T预训练tokens。它集成了DeepSeek稀疏注意力(DSA),在减少推理成本的同时保留了长上下文能力,并利用“slime”异步RL堆栈,在推理、编码和自主基准测试中提供强大的性能。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.3
/
$
2.55
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
不
专家混合
是
总参数
750B
激活的参数
40B
推理
不
精度
FP8
上下文长度
205K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
不支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Z.ai
chat
GLM-5
发行日期:2026年2月12日
上下文长度:
205K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
发行日期:2025年12月23日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
发行日期:2025年12月8日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
发行日期:2025年10月4日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
发行日期:2025年7月28日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
发行日期:2025年8月13日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
发行日期:2025年7月4日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
发行日期:2025年4月18日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
发行日期:2025年4月18日
上下文长度:
33K
最大输出长度:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens
