

Perbandingan Model
Qwen2.5-VL-7B-Instruct
vs
Qwen3-14B
28 Feb 2026

Harga
Input
$
0.05
/ M Tokens
$
0.07
/ M Tokens
Output
$
0.05
/ M Tokens
$
0.28
/ M Tokens
Metadata
Buat di
26 Jan 2025
27 Apr 2025
Lisensi
APACHE-2.0
APACHE-2.0
Penyedia
Qwen
Qwen
Spesifikasi
Negara
Available
Available
Arsitektur
Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.
Causal Language Model
Terkalibrasi
Tidak
Ya
Campuran Ahli
Tidak
Tidak
Total Parameter
7B
14B
Parameter yang Diaktifkan
7B
14.8B
Penalaran
Tidak
Tidak
Precision
FP8
FP8
Text panjang konteks
33K
131K
Max Tokens
4K
131K
Didukung Keberfungsian
Serverless
didukung
didukung
Serverless LoRA
Tidak didukung
Tidak didukung
Fine-tuning
Tidak didukung
Tidak didukung
Embeddings
Tidak didukung
Tidak didukung
Rerankers
Tidak didukung
Tidak didukung
Dukung Image Input
Tidak didukung
Tidak didukung
JSON Mode
Tidak didukung
didukung
Output Terstruktur
Tidak didukung
Tidak didukung
Alat
Tidak didukung
didukung
Fim Completion
Tidak didukung
Tidak didukung
Chat Prefix Completion
didukung
Tidak didukung
Qwen2.5-VL-7B-Instructdalam Perbandingan
Lihat bagaimana Qwen2.5-VL-7B-Instructmembandingkan dengan model populer lainnya di berbagai dimensi kunci.
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

Qwen3-14B
VS

Qwen3-30B-A3B
VS

Qwen3-32B
VS

Qwen3-8B
VS
deepseek-vl2
