約GLM-5.1
GLM-5.1 is Z.ai's next-generation flagship model built for agentic engineering. It is designed to run continuously for hours or even longer, refining its strategy as it works—the longer it runs, the better the results.
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
100万トークン(Input/Output)ごとに
$
1.4
/ M Tokens
100万トークン(Input/Output)ごとに
$
0.26
/ M Tokens
100万トークン(Input/Output)ごとに
$
4.4
/ M Tokens
メタデータ
仕様
州
Available
建築
GLM MoE
キャリブレートされた
いいえ
専門家の混合
はい
合計パラメータ
744B
アクティブ化されたパラメータ
推論
いいえ
Precision
FP8
コンテキスト長
205K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
サポートされていません
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

Z.ai
chat
GLM-5.1
リリース日:2026/04/03
Total Context:
205K
Max output:
131K
Input:
$
1.4
/ M Tokens
Output:
$
4.4
/ M Tokens

Z.ai
chat
GLM-5V-Turbo
リリース日:2026/03/30
Total Context:
205K
Max output:
131K
Input:
$
1.2
/ M Tokens
Output:
$
4.0
/ M Tokens

Z.ai
chat
GLM-5
リリース日:2026/02/12
Total Context:
205K
Max output:
131K
Input:
$
0.95
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
リリース日:2025/12/23
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
リリース日:2025/12/08
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
リリース日:2025/10/04
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
リリース日:2025/07/28
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
リリース日:2025/08/13
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
リリース日:2025/07/04
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens
