モデル比較

Qwen2.5-VL-32B-Instruct

Ring-flash-2.0

2026/02/04

価格

Input

$

0.27

/ M Tokens

$

0.14

/ M Tokens

Output

$

0.27

/ M Tokens

$

0.57

/ M Tokens

メタデータ

作成する

2025/03/21

2025/09/19

ライセンス

APACHE-2.0

MIT LICENSE

プロバイダー

Qwen

inclusionAI

仕様

Available

Available

建築

Vision Transformer (ViT) with window attention, SwiGLU, RMSNorm, and mRoPE, aligned with Qwen2.5 LLM structure

Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design

キャリブレートされた

はい

はい

専門家の混合

いいえ

はい

合計パラメータ

32B

100B

アクティブ化されたパラメータ

32B

6.1B

推論

いいえ

いいえ

Precision

FP8

FP8

コンテキスト長

131K

131K

Max Tokens

131K

131K

対応機能

Serverless

対応

対応

Serverless LoRA

サポートされていません

サポートされていません

Fine-tuning

サポートされていません

サポートされていません

Embeddings

サポートされていません

サポートされていません

Rerankers

サポートされていません

サポートされていません

Image入力をサポートする

サポートされていません

サポートされていません

JSON Mode

サポートされていません

サポートされていません

構造化されたOutputs

サポートされていません

サポートされていません

ツール

サポートされていません

サポートされていません

Fim Completion

サポートされていません

サポートされていません

Chat Prefix Completion

対応

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow