

模型比较
Qwen2.5-VL-32B-Instruct
对比
Ring-flash-2.0
2026年2月28日

定价
Input
$
0.27
/ M Tokens
$
0.14
/ M Tokens
Output
$
0.27
/ M Tokens
$
0.57
/ M Tokens
元数据
创建
2025年3月21日
2025年9月19日
许可证
APACHE-2.0
MIT LICENSE
提供者
Qwen
inclusionAI
规格
州
Available
Available
建筑
Multimodal Transformer
MoE architecture
校准的
是
是
专家混合
不
是
总参数
32B
100B
激活的参数
32B
6.1B
推理
不
不
精度
FP8
FP8
上下文长度
131K
131K
最大输出长度
131K
131K
支持功能
Serverless
支持
支持
Serverless LoRA
不支持
不支持
微调
不支持
不支持
Embeddings
不支持
不支持
Rerankers
不支持
不支持
支持 Image Input
不支持
不支持
JSON Mode
不支持
不支持
结构化Outputs
不支持
不支持
工具
不支持
不支持
FIM 补全
不支持
不支持
对话前缀补全
支持
支持
Qwen2.5-VL-32B-Instruct比较中
看看Qwen2.5-VL-32B-Instruct与其他流行模型在关键维度上进行比较。
对比

Qwen3-VL-32B-Instruct
对比

Qwen3-VL-32B-Thinking
对比

Qwen3-VL-8B-Instruct
对比

Qwen3-VL-8B-Thinking
对比

Qwen3-VL-30B-A3B-Instruct
对比

Qwen3-VL-30B-A3B-Thinking
对比

Qwen3-Omni-30B-A3B-Instruct
对比

Ring-flash-2.0
对比

Qwen3-Omni-30B-A3B-Captioner
对比

Qwen3-Omni-30B-A3B-Thinking
对比

Qwen3-Next-80B-A3B-Instruct
对比

Qwen3-Next-80B-A3B-Thinking
对比
gpt-oss-120b
对比
gpt-oss-20b
对比

Qwen3-Coder-30B-A3B-Instruct
对比

Qwen3-30B-A3B-Thinking-2507
对比

Qwen3-30B-A3B-Instruct-2507
对比

Qwen3-14B
对比

Qwen3-30B-A3B
对比

Qwen3-32B
