

模型比较
Qwen2.5-72B-Instruct-128K
对比
Qwen3-235B-A22B-Instruct-2507
2026年2月28日

定价
Input
$
0.59
/ M Tokens
$
0.09
/ M Tokens
Output
$
0.59
/ M Tokens
$
0.6
/ M Tokens
元数据
创建
2025年7月21日
许可证
APACHE 2.0
APACHE-2.0
提供者
Qwen
Qwen
规格
州
Deprecated
Available
建筑
Transformer Decoder
Mixture of Experts
校准的
不
是
专家混合
不
是
总参数
72B
235B
激活的参数
72B
22B
推理
不
不
精度
FP8
FP8
上下文长度
131K
262K
最大输出长度
4K
262K
支持功能
Serverless
支持
支持
Serverless LoRA
不支持
不支持
微调
不支持
不支持
Embeddings
不支持
不支持
Rerankers
不支持
不支持
支持 Image Input
不支持
不支持
JSON Mode
支持
支持
结构化Outputs
不支持
不支持
工具
支持
支持
FIM 补全
不支持
不支持
对话前缀补全
支持
支持
Qwen2.5-72B-Instruct-128K比较中
看看Qwen2.5-72B-Instruct-128K与其他流行模型在关键维度上进行比较。
对比

Qwen3-VL-32B-Instruct
对比

Qwen3-VL-32B-Thinking
对比

Qwen3-VL-8B-Instruct
对比

Qwen3-VL-8B-Thinking
对比

Qwen3-VL-30B-A3B-Instruct
对比

Qwen3-VL-30B-A3B-Thinking
对比

Qwen3-VL-235B-A22B-Instruct
对比

Qwen3-VL-235B-A22B-Thinking
对比

Qwen3-Omni-30B-A3B-Instruct
对比

Ring-flash-2.0
对比

Qwen3-Omni-30B-A3B-Captioner
对比

Qwen3-Omni-30B-A3B-Thinking
对比

Qwen3-Next-80B-A3B-Instruct
对比

Qwen3-Next-80B-A3B-Thinking
对比
gpt-oss-120b
对比
gpt-oss-20b
对比

Qwen3-Coder-30B-A3B-Instruct
对比

Qwen3-30B-A3B-Thinking-2507
对比

Qwen3-30B-A3B-Instruct-2507
对比

step3
