Qwen3-235B-A22B-Instruct-2507

Qwen3-235B-A22B-Instruct-2507

Qwen/Qwen3-235B-A22B-Instruct-2507

關於Qwen3-235B-A22B-Instruct-2507

Qwen3-235B-A22B-Instruct-2507是阿里巴巴云Qwen团队开发的Qwen3系列的旗舰專家组合(MoE)大型語言模型。該模型總共有2350億個參數,每次正向傳遞啟動22億個參數。它作為Qwen3-235B-A22B非思考模式的更新版本發布,具有在指令跟隨、邏輯推理、文本理解、數學、科學、編碼和工具使用等一般能力方面顯著增強。此外,該模型在多種語言的長尾知識覆蓋方面提供了顯著增益,並在主觀和開放式任務中顯著更好地與用戶偏好對齊,能夠產生更有用的回應和更高質量的文本生成。值得注意的是,它本地支持擴展的256K(262,144個tokens)上下文窗口,這提高了其對長文本上下文的理解能力。本版本專門支持非思考模式,不生成<think>塊,旨在為直接問答和知識檢索等任務提供更高效和精確的回應。

可用的無伺服器

立即運行查詢,僅按使用量付費

$

0.09

$

0.6

每百萬 Tokens(輸入/輸出)

元數據

創建於

2025年7月23日

許可證

APACHE-2.0

供應商

Qwen

規格

狀態

Available

架構

Mixture-of-Experts (MoE)

經過校準的

專家並行

總參數

235B

啟用的參數

22B

推理

精度

FP8

上下文長度

262K

最大輸出長度

262K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow