關於Qwen3-30B-A3B-Thinking-2507
Qwen3-30B-A3B-Thinking-2507 是 Qwen3 系列中最新的思考模型,由阿里巴巴的 Qwen 团队發布。作為 Mixture-of-Experts (MoE) 模型,擁有 305 億個總參數和 33 億個活動參數,它專注於提升複雜任務的能力。該模型在推理任務上顯示了顯著提升,包括邏輯推理、數學、科學、編碼和通常需要人類專業知識的學術基準。它還顯示出明顯更好的通用能力,如遵循指令、工具使用、文本生成以及與人類偏好的對齊。該模型原生支持 256K 長上下文理解能力,可擴展到 100 萬 token。此版本專門設計為「思考模式」,通過逐步推理來解決高度複雜的問題,並且在主動性能力方面表現出色。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.09
/
$
0.3
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
Mixture-of-Experts
經過校準的
否
專家並行
是
總參數
30B
啟用的參數
3.3B
推理
否
精度
FP8
上下文長度
262K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
不支持
與其他模型比較
看看這個模型與其他模型的對比如何。

Qwen
chat
Qwen3-VL-32B-Instruct
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
2.0
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.45
/ M Tokens
輸出:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
發行日期:2025年10月5日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
發行日期:2025年10月11日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
發行日期:2025年8月13日
$
0.29
/ Video
