

模型比较
GLM-4-9B-0414
对比
gpt-oss-20b
2026年2月28日
定价
Input
$
0.086
/ M Tokens
$
0.04
/ M Tokens
Output
$
0.086
/ M Tokens
$
0.18
/ M Tokens
元数据
规格
州
Deprecated
Available
建筑
Transformer
MoE Transformer
校准的
是
不
专家混合
不
是
总参数
9B
20B
激活的参数
9B
3.6B
推理
不
不
精度
FP8
FP8
上下文长度
33K
131K
最大输出长度
33K
8K
支持功能
Serverless
支持
支持
Serverless LoRA
不支持
不支持
微调
不支持
不支持
Embeddings
不支持
不支持
Rerankers
不支持
不支持
支持 Image Input
不支持
不支持
JSON Mode
支持
支持
结构化Outputs
不支持
不支持
工具
支持
不支持
FIM 补全
不支持
不支持
对话前缀补全
不支持
不支持
GLM-4-9B-0414比较中
看看GLM-4-9B-0414与其他流行模型在关键维度上进行比较。
对比

Qwen3-VL-32B-Instruct
对比

Qwen3-VL-32B-Thinking
对比

Qwen3-VL-8B-Instruct
对比

Qwen3-VL-8B-Thinking
对比

Qwen3-VL-30B-A3B-Instruct
对比

Qwen3-VL-30B-A3B-Thinking
对比

Qwen3-Omni-30B-A3B-Instruct
对比

Qwen3-Omni-30B-A3B-Captioner
对比

Qwen3-Omni-30B-A3B-Thinking
对比

Qwen3-Next-80B-A3B-Instruct
对比

Qwen3-Next-80B-A3B-Thinking
对比

Ling-mini-2.0
对比

Hunyuan-MT-7B
对比
gpt-oss-20b
对比

Qwen3-Coder-30B-A3B-Instruct
对比

Qwen3-30B-A3B-Thinking-2507
对比

Qwen3-30B-A3B-Instruct-2507
对比

GLM-4.1V-9B-Thinking
对比

Hunyuan-A13B-Instruct
对比

Qwen3-14B
