關於QwQ-32B
QwQ 是 Qwen 系列的推理模型。與傳統的指令調整模型相比,具備思考和推理能力的 QwQ 可以在下游任務中顯著增強性能,尤其是在解決難題方面。QwQ-32B 是中等大小的推理模型,能夠在與最先進的推理模型競爭中取得優勢,比如 DeepSeek-R1、o1-mini。該模型結合了 RoPE、SwiGLU、RMSNorm 以及注意力 QKV 偏差等技術,擁有 64 層和 40 個 Q 注意力頭(GQA 架構中 KV 有 8 個)。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.15
/
$
0.58
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
可用
架構
經過校準的
不
專家並行
不
總參數
32B
啟用的參數
32.5B
推理
不
精度
FP8
上下文長度
131K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
不支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
不支持
與其他模型比較
看看這個模型與其他模型的對比如何。

Qwen
聊天
Qwen3-VL-32B-Instruct
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
聊天
Qwen3-VL-32B-Thinking
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
聊天
Qwen3-VL-8B-Instruct
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
0.68
/ M Tokens

Qwen
聊天
Qwen3-VL-8B-Thinking
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
2.0
/ M Tokens

Qwen
聊天
Qwen3-VL-235B-A22B-Instruct
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
聊天
Qwen3-VL-235B-A22B-Thinking
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.45
/ M Tokens
輸出:
$
3.5
/ M Tokens

Qwen
聊天
Qwen3-VL-30B-A3B-Instruct
發行日期:2025年10月5日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
聊天
Qwen3-VL-30B-A3B-Thinking
發行日期:2025年10月11日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
影像轉影片
Wan2.2-I2V-A14B
發行日期:2025年8月13日
總上下文:
0K
最大輸出:
輸入:
$
/ 影片
輸出:
$
/ 影片
