

モデル比較
Qwen2.5-14B-Instruct
対
Qwen2.5-VL-7B-Instruct
2026/02/28

価格
Input
$
0.1
/ M Tokens
$
0.05
/ M Tokens
Output
$
0.1
/ M Tokens
$
0.05
/ M Tokens
メタデータ
作成する
2024/09/16
2025/01/26
ライセンス
APACHE-2.0
APACHE-2.0
プロバイダー
Qwen
Qwen
仕様
州
Available
Available
建築
transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias
Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.
キャリブレートされた
はい
いいえ
専門家の混合
はい
いいえ
合計パラメータ
14B
7B
アクティブ化されたパラメータ
14.7B
7B
推論
いいえ
いいえ
Precision
FP8
FP8
コンテキスト長
33K
33K
Max Tokens
4K
4K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
サポートされていません
Fine-tuning
サポートされていません
サポートされていません
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
対応
サポートされていません
構造化されたOutputs
サポートされていません
サポートされていません
ツール
対応
サポートされていません
Fim Completion
サポートされていません
サポートされていません
Chat Prefix Completion
対応
対応
Qwen2.5-14B-Instruct比較において
見てくださいQwen2.5-14B-Instruct主要な次元において他の人気のあるモデルと比較します。
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

Qwen3-14B
VS

Qwen3-30B-A3B
VS

Qwen3-32B
VS

Qwen3-8B
VS

Qwen2.5-VL-32B-Instruct
