
模型比較
對比
Qwen3-Omni-30B-A3B-Captioner
2026年2月28日

規格
州
Available
架構
Qwen3-Omni Mixture of Experts (MoE)
經過校準的
是
是
專家混合
是
是
總參數
30B
啟用的參數
推理
是
不
精確
FP8
上下文長度
66K
最大輸出長度
66K
支援的功能
無伺服器
支持
支持
無伺服器的 LoRA
支持
不支持
微調
支持
不支持
嵌入
支持
支持
重新排名者
支持
不支持
支援圖片輸入
不支持
不支持
JSON 模式
支持
支持
結構化輸出
支持
不支持
工具
支持
支持
完成最後一步
支持
支持
聊天前綴完成
支持
支持
在比較中
看看如何 與其他熱門型號在關鍵層面上進行比較。
對戰

Step-3.5-Flash
對戰

Qwen3-VL-32B-Instruct
對戰

Qwen3-VL-32B-Thinking
對戰

Qwen3-VL-30B-A3B-Instruct
對戰

Qwen3-VL-30B-A3B-Thinking
對戰

Qwen3-VL-235B-A22B-Instruct
對戰

Qwen3-VL-235B-A22B-Thinking
對戰

Qwen3-VL-235B-A22B-Instruct
對戰

Qwen3-VL-235B-A22B-Thinking
對戰

Qwen3-Omni-30B-A3B-Instruct
對戰

Ring-flash-2.0
對戰

Ring-flash-2.0
對戰

Qwen3-Omni-30B-A3B-Captioner
對戰

Qwen3-Omni-30B-A3B-Thinking
對戰

Qwen3-Next-80B-A3B-Instruct
對戰

Qwen3-Next-80B-A3B-Thinking
對戰
gpt-oss-120b
對戰
gpt-oss-120b
對戰

Qwen3-Coder-30B-A3B-Instruct
對戰

Qwen3-30B-A3B-Thinking-2507
