約GLM-4.6
GLM-4.5と比較して、GLM-4.6はいくつかの重要な改善をもたらします。200K tokensまで拡張された長いコンテキストウィンドウ、優れたコーディング性能、高度な推論、より能力の高いエージェント、そして洗練された執筆を含みます。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.39
/
$
1.9
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
はい
専門家の混合
はい
合計パラメータ
335B
アクティブ化されたパラメータ
推論
いいえ
Precision
FP8
コンテキスト長
205K
Max Tokens
205K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
対応
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
対応
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

Z.ai
chat
GLM-4.7
リリース日:2025/12/23
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
リリース日:2025/12/08
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
リリース日:2025/10/04
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
リリース日:2025/07/28
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
リリース日:2025/08/13
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
リリース日:2025/07/04
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
リリース日:2025/04/18
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
chat
GLM-Z1-9B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens
