

モデル比較
GLM-4.6V
対
Qwen3-Next-80B-A3B-Instruct
2026/02/28

価格
Input
$
0.3
/ M Tokens
$
0.14
/ M Tokens
Output
$
0.9
/ M Tokens
$
1.4
/ M Tokens
メタデータ
仕様
州
Available
Available
建築
Multimodal with Function Calling, Mixture of Experts (MoE)
Qwen3-Next architecture featuring Hybrid Attention (Gated DeltaNet and Gated Attention), High-Sparsity Mixture-of-Experts (MoE), Stability Optimizations, and Multi-Token Prediction (MTP)
キャリブレートされた
はい
いいえ
専門家の混合
はい
はい
合計パラメータ
106B
80B
アクティブ化されたパラメータ
106B
3B
推論
いいえ
いいえ
Precision
FP8
FP8
コンテキスト長
131K
262K
Max Tokens
131K
262K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
サポートされていません
Fine-tuning
サポートされていません
サポートされていません
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
サポートされていません
対応
構造化されたOutputs
サポートされていません
サポートされていません
ツール
対応
対応
Fim Completion
サポートされていません
サポートされていません
Chat Prefix Completion
サポートされていません
対応
GLM-4.6V比較において
見てくださいGLM-4.6V主要な次元において他の人気のあるモデルと比較します。
VS

MiniMax-M2.5
VS

GLM-5
VS

Step-3.5-Flash
VS

GLM-4.7
VS

MiniMax-M2.1
VS

MiniMax-M2
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Ling-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
