關於Qwen3-Next-80B-A3B-Thinking
Qwen3-Next-80B-A3B-Thinking 是阿里巴巴 Qwen 團隊的一個次世代基礎模型,專門設計用於複雜的推理任務。它建立在創新的 Qwen3-Next 架構之上,結合了混合注意力機制(閘控 DeltaNet 和閘控注意力)與高稀疏度專家混合(MoE)結構,以實現最終的訓練和推理效率。作為一個800億參數的稀疏模型,它在推理過程中僅激活約30億參數,大大降低了計算成本,並在超過32K token 的長上下文任務中提供超過10倍於 Qwen3-32B 模型的處理能力。此“Thinking”版本針對數學證明、代碼合成、邏輯分析和代理規劃等高要求的多步驟問題進行優化,並默認輸出結構化的“thinking”軌跡。在性能方面,它超越了更高成本的模型如 Qwen3-32B-Thinking,並在多個基準測試中勝過 Gemini-2.5-Flash-Thinking。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.14
/
$
0.57
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
經過校準的
否
專家並行
是
總參數
80B
啟用的參數
3B
推理
否
精度
FP8
上下文長度
262K
最大輸出長度
262K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
不支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
支持
與其他模型比較
看看這個模型與其他模型的對比如何。

Qwen
chat
Qwen3-VL-32B-Instruct
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
2.0
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.45
/ M Tokens
輸出:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
發行日期:2025年10月5日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
發行日期:2025年10月11日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
發行日期:2025年8月13日
$
0.29
視頻
