关于GLM-4.6
与GLM-4.5相比,GLM-4.6带来了几个关键改进,包括将上下文窗口扩展到200K tokens、更优异的编码性能、先进的推理能力、更有能力的代理以及精炼的写作。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.39
/
$
1.9
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
是
专家混合
是
总参数
335B
激活的参数
推理
不
精度
FP8
上下文长度
205K
最大输出长度
205K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Z.ai
chat
GLM-5
发行日期:2026年2月12日
上下文长度:
205K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
发行日期:2025年12月23日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
发行日期:2025年12月8日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
发行日期:2025年10月4日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
发行日期:2025年7月28日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
发行日期:2025年8月13日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
发行日期:2025年7月4日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
发行日期:2025年4月18日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
发行日期:2025年4月18日
上下文长度:
33K
最大输出长度:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens
