約GLM-4.1V-9B-Thinking
GLM-4.1V-9B-Thinkingは、Zhipu AIと清華大学のKEG研究所が共同で発表したオープンソースのVision-Language Model(VLM)であり、一般目的のマルチモーダルな推論を進化させるよう設計されています。GLM-4-9B-0414の基礎モデルを基に構築されたこのモデルは、「思考のパラダイム」を導入し、カリキュラムサンプリングを用いた強化学習(RLCS)を活用して、複雑なタスクにおける能力を大幅に向上させています。9Bパラメータモデルとして、同等のサイズのモデルの中で最先端のパフォーマンスを達成し、18の異なるベンチマークで、はるかに大きな72BパラメータのQwen-2.5-VL-72Bと比較して同等かそれ以上の性能を発揮します。このモデルは、STEMの問題解決、Videoの理解、長文の理解を含む多様なタスクに優れ、最大4Kの解像度と任意のアスペクト比のImageを処理できます。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.035
/
$
0.14
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
いいえ
専門家の混合
いいえ
合計パラメータ
9B
アクティブ化されたパラメータ
9B
推論
いいえ
Precision
FP8
コンテキスト長
66K
Max Tokens
66K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
対応
JSON Mode
サポートされていません
構造化されたOutputs
サポートされていません
ツール
サポートされていません
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

Z.ai
chat
GLM-4.7
リリース日:2025/12/23
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
リリース日:2025/12/08
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
リリース日:2025/10/04
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
リリース日:2025/07/28
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
リリース日:2025/08/13
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
リリース日:2025/07/04
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
リリース日:2025/04/18
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
chat
GLM-Z1-9B-0414
リリース日:2025/04/18
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens
