关于GLM-5.1
GLM-5.1 is Z.ai's next-generation flagship model built for agentic engineering. It is designed to run continuously for hours or even longer, refining its strategy as it works—the longer it runs, the better the results.
可用的 Serverless
立即运行查询,仅按使用量付费
每 100 万 token(Input/Output)
$
1.4
/ M Tokens
每 100 万 token(Input/Output)
$
0.26
/ M Tokens
每 100 万 token(Input/Output)
$
4.4
/ M Tokens
元数据
规格
州
Available
建筑
GLM MoE
校准的
不
专家混合
是
总参数
744B
激活的参数
推理
不
精度
FP8
上下文长度
205K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
不支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Z.ai
chat
GLM-5.1
发行日期:2026年4月3日
上下文长度:
205K
最大输出长度:
131K
Input:
$
1.4
/ M Tokens
Output:
$
4.4
/ M Tokens

Z.ai
chat
GLM-5V-Turbo
发行日期:2026年3月30日
上下文长度:
205K
最大输出长度:
131K
Input:
$
1.2
/ M Tokens
Output:
$
4.0
/ M Tokens

Z.ai
chat
GLM-5
发行日期:2026年2月12日
上下文长度:
205K
最大输出长度:
131K
Input:
$
0.95
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
发行日期:2025年12月23日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
发行日期:2025年12月8日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
发行日期:2025年10月4日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
发行日期:2025年7月28日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
发行日期:2025年8月13日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
发行日期:2025年7月4日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens
