模型比較

Qwen2.5-VL-32B-Instruct

對比

Ring-flash-2.0

2026年2月4日

定價

輸入

$

0.27

/ M Tokens

$

0.14

/ M Tokens

輸出

$

0.27

/ M Tokens

$

0.57

/ M Tokens

元數據

創建於

2025年3月21日

2025年9月19日

許可證

APACHE-2.0

MIT LICENSE

供應商

Qwen

inclusionAI

規格

Available

Available

架構

Vision Transformer (ViT) with window attention, SwiGLU, RMSNorm, and mRoPE, aligned with Qwen2.5 LLM structure

Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design

經過校準的

專家混合

總參數

32B

100B

啟用的參數

32B

6.1B

推理

精確

FP8

FP8

上下文長度

131K

131K

最大輸出長度

131K

131K

支援的功能

無伺服器

支持

支持

無伺服器的 LoRA

不支持

不支持

微調

不支持

不支持

嵌入

不支持

不支持

重新排名者

不支持

不支持

支援圖片輸入

不支持

不支持

JSON 模式

不支持

不支持

結構化輸出

不支持

不支持

工具

不支持

不支持

完成最後一步

不支持

不支持

聊天前綴完成

支持

支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow