
模型比较
DeepSeek-V3.2
对比
Qwen3-235B-A22B-Thinking-2507
2026年2月28日

定价
Input
$
0.27
/ M Tokens
$
0.13
/ M Tokens
Output
$
0.42
/ M Tokens
$
0.6
/ M Tokens
元数据
创建
2025年12月1日
2025年7月25日
许可证
MIT LICENSE
APACHE-2.0
提供者
DeepSeek
Qwen
规格
州
Available
Available
建筑
Sparse MoE
Mixture of Experts
校准的
不
是
专家混合
不
是
总参数
671B
235B
激活的参数
671B
22B
推理
不
不
精度
FP8
FP8
上下文长度
164K
262K
最大输出长度
164K
262K
支持功能
Serverless
支持
支持
Serverless LoRA
不支持
不支持
微调
不支持
不支持
Embeddings
不支持
不支持
Rerankers
不支持
不支持
支持 Image Input
不支持
不支持
JSON Mode
支持
支持
结构化Outputs
不支持
不支持
工具
支持
支持
FIM 补全
不支持
不支持
对话前缀补全
支持
支持
DeepSeek-V3.2比较中
看看DeepSeek-V3.2与其他流行模型在关键维度上进行比较。
对比

MiniMax-M2.5
对比

GLM-5
对比

Step-3.5-Flash
对比

GLM-4.7
对比

GLM-4.7
对比

MiniMax-M2.1
对比

GLM-4.6V
对比

Kimi-K2-Thinking
对比

MiniMax-M2
对比
DeepSeek-V3.2-Exp
对比

GLM-4.6
对比

Qwen3-VL-235B-A22B-Instruct
对比

Qwen3-VL-235B-A22B-Thinking
对比

Ring-flash-2.0
对比

Ling-flash-2.0
对比

Kimi-K2-Instruct-0905
对比

GLM-4.5V
对比
gpt-oss-120b
对比

step3
对比

Qwen3-235B-A22B-Thinking-2507
