モデル比較

Qwen2.5-VL-7B-Instruct

Qwen3-Omni-30B-A3B-Instruct

2026/02/28

価格

Input

$

0.05

/ M Tokens

$

0.1

/ M Tokens

Output

$

0.05

/ M Tokens

$

0.4

/ M Tokens

メタデータ

作成する

2025/01/26

2025/09/20

ライセンス

APACHE-2.0

-

プロバイダー

Qwen

Qwen

仕様

Available

Available

建築

Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.

natively end-to-end multilingual omni-modal foundation model with MoE-based Thinker-Talker design, AuT pretraining, and multi-codebook design

キャリブレートされた

いいえ

いいえ

専門家の混合

いいえ

はい

合計パラメータ

7B

30B

アクティブ化されたパラメータ

7B

3B

推論

いいえ

いいえ

Precision

FP8

FP8

コンテキスト長

33K

66K

Max Tokens

4K

66K

対応機能

Serverless

対応

対応

Serverless LoRA

サポートされていません

サポートされていません

Fine-tuning

サポートされていません

サポートされていません

Embeddings

サポートされていません

サポートされていません

Rerankers

サポートされていません

サポートされていません

Image入力をサポートする

サポートされていません

サポートされていません

JSON Mode

サポートされていません

対応

構造化されたOutputs

サポートされていません

サポートされていません

ツール

サポートされていません

対応

Fim Completion

サポートされていません

対応

Chat Prefix Completion

対応

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow