約GLM-4.6V
GLM-4.6Vは、同じパラメータスケールのモデルにおいて、視覚理解の分野でSOTA(最先端)の精度を達成しました。初めて、視覚モデルのアーキテクチャにFunction Call機能をネイティブに統合し、「視覚的認識」と「実行可能な行動」の間のギャップを橋渡しします。これにより、現実のビジネスシナリオにおけるMultimodal Agentの統一技術基盤が提供されます。さらに、視覚コンテキストウィンドウが128kに拡張され、長いVideoストリーム処理と高解像度のマルチImage分析をサポートします。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.3
/
$
0.9
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
Multimodal with Function Calling, Mixture of Experts (MoE)
キャリブレートされた
はい
専門家の混合
はい
合計パラメータ
106B
アクティブ化されたパラメータ
106B
推論
いいえ
Precision
FP8
コンテキスト長
131K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
対応
JSON Mode
サポートされていません
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

Z.ai
chat
GLM-5
リリース日:2026/02/12
Total Context:
205K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
リリース日:2025/12/23
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
リリース日:2025/12/08
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
リリース日:2025/10/04
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
リリース日:2025/07/28
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
リリース日:2025/08/13
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
リリース日:2025/07/04
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
リリース日:2025/04/18
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens
