約GLM-4.5-Air
GLM-4.5シリーズのモデルは、インテリジェントエージェントのために設計されたファウンデーションモデルです。GLM-4.5-Airは、合計1060億のパラメーターと、120億のアクティブパラメーターを備えた、よりコンパクトな設計を採用しています。また、思考モードと非思考モードの両方を提供するハイブリッド推論モデルでもあります。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.14
/
$
0.86
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
いいえ
専門家の混合
はい
合計パラメータ
106B
アクティブ化されたパラメータ
12B
推論
いいえ
Precision
FP8
コンテキスト長
131K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
サポートされていません
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

Z.ai
chat
GLM-4.7
リリース日:2025/12/23
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
リリース日:2025/12/08
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
リリース日:2025/10/04
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
リリース日:2025/07/28
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
リリース日:2025/08/13
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
リリース日:2025/07/04
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
リリース日:2025/04/18
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
chat
GLM-Z1-9B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens
