QwQ-32B

QwQ-32B

Qwen/QwQ-32B

關於QwQ-32B

QwQ 是 Qwen 系列的推理模型。與傳統的指令調優模型相比,能思考和推理的 QwQ 能在下游任務中實現顯著提升的性能,尤其是在處理困難問題時。QwQ-32B 是中型推理模型,能夠在與尖端推理模型,例如 DeepSeek-R1、o1-mini 的競爭中展示出色的性能。該模型融合了 RoPE、SwiGLU、RMSNorm 和注意力 QKV 偏差等技術,擁有 64 層和 40 個 Q 注意力頭(在 GQA 架構中,有 8 個用於 KV)

可用的無伺服器

立即運行查詢,僅按使用量付費

$

0.15

$

0.58

每百萬 Tokens(輸入/輸出)

元數據

創建於

2025年3月6日

許可證

APACHE-2.0

供應商

Qwen

HuggingFace

規格

狀態

Available

架構

transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias, with 64 layers and GQA (40 Q attention heads, 8 for KV)

經過校準的

專家並行

總參數

32B

啟用的參數

32.5B

推理

精度

FP8

上下文長度

131K

最大輸出長度

131K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

不支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

不支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow