

模型比較
QwQ-32B
對比
Ring-flash-2.0
2026年2月28日

定價
輸入
$
0.15
/ M Tokens
$
0.14
/ M Tokens
輸出
$
0.58
/ M Tokens
$
0.57
/ M Tokens
元數據
規格
州
Available
Available
架構
transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias, with 64 layers and GQA (40 Q attention heads, 8 for KV)
Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design
經過校準的
不
是
專家混合
不
是
總參數
32B
100B
啟用的參數
32.5B
6.1B
推理
不
不
精確
FP8
FP8
上下文長度
131K
131K
最大輸出長度
131K
131K
支援的功能
無伺服器
支持
支持
無伺服器的 LoRA
不支持
不支持
微調
不支持
不支持
嵌入
不支持
不支持
重新排名者
不支持
不支持
支援圖片輸入
不支持
不支持
JSON 模式
不支持
不支持
結構化輸出
不支持
不支持
工具
支持
不支持
完成最後一步
不支持
不支持
聊天前綴完成
不支持
支持
QwQ-32B在比較中
看看如何 QwQ-32B與其他熱門型號在關鍵層面上進行比較。
對戰

Qwen3-VL-32B-Instruct
對戰

Qwen3-VL-32B-Thinking
對戰

Qwen3-VL-8B-Instruct
對戰

Qwen3-VL-8B-Thinking
對戰

Qwen3-VL-30B-A3B-Instruct
對戰

Qwen3-VL-30B-A3B-Thinking
對戰

Qwen3-Omni-30B-A3B-Instruct
對戰

Ring-flash-2.0
對戰

Qwen3-Omni-30B-A3B-Captioner
對戰

Qwen3-Omni-30B-A3B-Thinking
對戰

Qwen3-Next-80B-A3B-Instruct
對戰

Qwen3-Next-80B-A3B-Thinking
對戰
gpt-oss-120b
對戰
gpt-oss-20b
對戰

Qwen3-Coder-30B-A3B-Instruct
對戰

Qwen3-30B-A3B-Thinking-2507
對戰

Qwen3-30B-A3B-Instruct-2507
對戰

Qwen3-14B
對戰

Qwen3-30B-A3B
對戰

Qwen3-32B
