關於GLM-5
GLM-5 is a next-generation open-source model for complex systems engineering and long-horizon agentic tasks, scaled to ~744B sparse parameters (~40B active) with ~28.5T pretraining tokens. It integrates DeepSeek Sparse Attention (DSA) to retain long-context capacity while reducing inference cost, and leverages the “slime” asynchronous RL stack to deliver strong performance in reasoning, coding, and agentic benchmarks.
可用的無伺服器
立即運行查詢,僅按使用量付費
$
1.0
/
$
3.2
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack
經過校準的
否
專家並行
是
總參數
750B
啟用的參數
40B
推理
否
精度
FP8
上下文長度
205K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
不支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
不支持
與其他模型比較
看看這個模型與其他模型的對比如何。

Z.ai
chat
GLM-5
發行日期:2026年2月12日
總上下文:
205K
最大輸出:
131K
輸入:
$
1.0
/ M Tokens
輸出:
$
3.2
/ M Tokens

Z.ai
chat
GLM-4.7
發行日期:2025年12月23日
總上下文:
205K
最大輸出:
205K
輸入:
$
0.42
/ M Tokens
輸出:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
發行日期:2025年12月8日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.3
/ M Tokens
輸出:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
發行日期:2025年10月4日
總上下文:
205K
最大輸出:
205K
輸入:
$
0.39
/ M Tokens
輸出:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
發行日期:2025年7月28日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
發行日期:2025年8月13日
總上下文:
66K
最大輸出:
66K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
發行日期:2025年7月4日
總上下文:
66K
最大輸出:
66K
輸入:
$
0.035
/ M Tokens
輸出:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
發行日期:2025年4月18日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
發行日期:2025年4月18日
總上下文:
33K
最大輸出:
33K
輸入:
$
0.27
/ M Tokens
輸出:
$
0.27
/ M Tokens
