
模型比較
DeepSeek-V3.2-Exp
對比
Qwen3.5-122B-A10B
2026年5月11日

定價
輸入
$
0.27
/ M Tokens
$
0.26
/ M Tokens
輸出
$
0.41
/ M Tokens
$
2.08
/ M Tokens
元數據
創建於
2025年9月29日
2026年2月24日
許可證
MIT LICENSE
APACHE-2.0
供應商
DeepSeek
Qwen
規格
州
Available
Available
架構
Sparse MoE Transformer
Hybrid Sparse MoE
經過校準的
不
是
專家混合
不
是
總參數
671B
122B
啟用的參數
37B
10B
推理
不
不
精確
FP8
FP8
上下文長度
164K
262K
最大輸出長度
164K
262K
支援的功能
無伺服器
支持
支持
無伺服器的 LoRA
不支持
不支持
微調
不支持
不支持
嵌入
不支持
不支持
重新排名者
不支持
不支持
支援圖片輸入
不支持
不支持
JSON 模式
支持
支持
結構化輸出
不支持
不支持
工具
支持
支持
完成最後一步
不支持
不支持
聊天前綴完成
支持
不支持
DeepSeek-V3.2-Exp在比較中
看看如何 DeepSeek-V3.2-Exp與其他熱門型號在關鍵層面上進行比較。
對戰
DeepSeek-V4-Flash
對戰
DeepSeek-V4-Pro
對戰

GLM-5.1
對戰

Qwen3.5-122B-A10B
對戰

Qwen3.5-397B-A17B
對戰

MiniMax-M2.5
對戰

GLM-5
對戰

Step-3.5-Flash
對戰

GLM-4.7
對戰

MiniMax-M2.1
對戰

GLM-4.6V
對戰

Kimi-K2-Thinking
對戰

MiniMax-M2
對戰

GLM-4.6
對戰

Qwen3-VL-235B-A22B-Instruct
對戰

Qwen3-VL-235B-A22B-Thinking
對戰

Ring-flash-2.0
對戰

Ling-flash-2.0
對戰

Kimi-K2-Instruct-0905
對戰

GLM-4.5V
