

モデル比較
Qwen2.5-VL-72B-Instruct
対
2026/02/04
価格
Input
$
0.59
/ M Tokens
$
/ M Tokens
Output
$
0.59
/ M Tokens
$
/ M Tokens
メタデータ
仕様
州
Available
建築
Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.
キャリブレートされた
いいえ
はい
専門家の混合
いいえ
はい
合計パラメータ
72B
アクティブ化されたパラメータ
72B
推論
いいえ
はい
Precision
FP8
コンテキスト長
131K
Max Tokens
4K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
対応
Fine-tuning
サポートされていません
対応
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
対応
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
サポートされていません
対応
構造化されたOutputs
サポートされていません
対応
ツール
サポートされていません
対応
Fim Completion
サポートされていません
対応
Chat Prefix Completion
対応
対応
Qwen2.5-VL-72B-Instruct比較において
見てくださいQwen2.5-VL-72B-Instruct主要な次元において他の人気のあるモデルと比較します。
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

step3
