关于QwQ-32B
QwQ是Qwen系列的推理模型。与传统指令调整模型相比,QwQ能够思考和推理,可以在下游任务中实现显著增强的性能,特别是难题。QwQ-32B是中型推理模型,能够在性能上与最先进的推理模型,例如DeepSeek-R1、o1-mini竞争。该模型融入了RoPE、SwiGLU、RMSNorm和Attention QKV bias等技术,具有64层和40个Q注意力头(8个用于GQA架构中的KV)
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.15
/
$
0.58
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
不
专家混合
不
总参数
32B
激活的参数
32.5B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
不支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Qwen
chat
Qwen3-VL-32B-Instruct
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
发行日期:2025年10月5日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
发行日期:2025年10月11日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
发行日期:2025年8月13日
$
0.29
/ Video
