

Perbandingan Model
Ling-mini-2.0
vs
Qwen2.5-VL-72B-Instruct
28 Feb 2026

Harga
Input
$
0.07
/ M Tokens
$
0.59
/ M Tokens
Output
$
0.28
/ M Tokens
$
0.59
/ M Tokens
Metadata
Buat di
8 Sep 2025
27 Jan 2025
Lisensi
MIT
-
Penyedia
inclusionAI
Qwen
Spesifikasi
Negara
Available
Available
Arsitektur
MoE
Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.
Terkalibrasi
Ya
Tidak
Campuran Ahli
Ya
Tidak
Total Parameter
16B
72B
Parameter yang Diaktifkan
1.4B
72B
Penalaran
Tidak
Tidak
Precision
FP8
FP8
Text panjang konteks
131K
131K
Max Tokens
131K
4K
Didukung Keberfungsian
Serverless
didukung
didukung
Serverless LoRA
Tidak didukung
Tidak didukung
Fine-tuning
Tidak didukung
Tidak didukung
Embeddings
Tidak didukung
Tidak didukung
Rerankers
Tidak didukung
Tidak didukung
Dukung Image Input
Tidak didukung
Tidak didukung
JSON Mode
didukung
Tidak didukung
Output Terstruktur
Tidak didukung
Tidak didukung
Alat
didukung
Tidak didukung
Fim Completion
Tidak didukung
Tidak didukung
Chat Prefix Completion
didukung
didukung
Ling-mini-2.0dalam Perbandingan
Lihat bagaimana Ling-mini-2.0membandingkan dengan model populer lainnya di berbagai dimensi kunci.
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

Qwen3-14B
VS

Qwen3-30B-A3B
VS

Qwen3-32B
VS

Qwen3-8B
VS

Qwen2.5-VL-32B-Instruct
