

モデル比較
GLM-4.6
対
step3
2026/02/04

価格
Input
$
0.39
/ M Tokens
$
0.57
/ M Tokens
Output
$
1.9
/ M Tokens
$
1.42
/ M Tokens
メタデータ
仕様
州
Available
Deprecated
建築
Mixture of Experts Transformer
Mixture-of-Experts (MoE) architecture with Multi-Matrix Factorization Attention (MFA) and Attention-FFN Disaggregation (AFD)
キャリブレートされた
はい
いいえ
専門家の混合
はい
はい
合計パラメータ
335B
321B
アクティブ化されたパラメータ
38B
推論
いいえ
いいえ
Precision
FP8
FP8
コンテキスト長
205K
66K
Max Tokens
205K
66K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
サポートされていません
Fine-tuning
サポートされていません
サポートされていません
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
対応
対応
構造化されたOutputs
サポートされていません
サポートされていません
ツール
対応
対応
Fim Completion
サポートされていません
サポートされていません
Chat Prefix Completion
対応
サポートされていません
GLM-4.6比較において
見てくださいGLM-4.6主要な次元において他の人気のあるモデルと比較します。
VS

GLM-4.7
VS

GLM-4.6V
VS

Kimi-K2-Thinking
VS

MiniMax-M2
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Ring-flash-2.0
VS

Ling-flash-2.0
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS

Kimi-K2-Instruct-0905
VS
gpt-oss-120b
VS

step3
VS

Qwen3-235B-A22B-Thinking-2507
VS

Qwen3-Coder-480B-A35B-Instruct
VS

Qwen3-235B-A22B-Instruct-2507
VS

Kimi-K2-Instruct
VS

Hunyuan-A13B-Instruct
VS

Kimi-Dev-72B
VS

MiniMax-M1-80k
