

Perbandingan Model
Ling-flash-2.0
vs
Qwen2.5-VL-72B-Instruct
28 Feb 2026

Harga
Input
$
0.14
/ M Tokens
$
0.59
/ M Tokens
Output
$
0.57
/ M Tokens
$
0.59
/ M Tokens
Metadata
Buat di
17 Sep 2025
27 Jan 2025
Lisensi
MIT LICENSE
-
Penyedia
inclusionAI
Qwen
Spesifikasi
Negara
Available
Available
Arsitektur
Ling 2.0 MoE architecture
Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.
Terkalibrasi
Tidak
Tidak
Campuran Ahli
Ya
Tidak
Total Parameter
100B
72B
Parameter yang Diaktifkan
6.1B
72B
Penalaran
Tidak
Tidak
Precision
FP8
FP8
Text panjang konteks
131K
131K
Max Tokens
131K
4K
Didukung Keberfungsian
Serverless
didukung
didukung
Serverless LoRA
Tidak didukung
Tidak didukung
Fine-tuning
Tidak didukung
Tidak didukung
Embeddings
Tidak didukung
Tidak didukung
Rerankers
Tidak didukung
Tidak didukung
Dukung Image Input
Tidak didukung
Tidak didukung
JSON Mode
didukung
Tidak didukung
Output Terstruktur
Tidak didukung
Tidak didukung
Alat
didukung
Tidak didukung
Fim Completion
Tidak didukung
Tidak didukung
Chat Prefix Completion
didukung
didukung
Ling-flash-2.0dalam Perbandingan
Lihat bagaimana Ling-flash-2.0membandingkan dengan model populer lainnya di berbagai dimensi kunci.
VS

MiniMax-M2.5
VS

Step-3.5-Flash
VS

MiniMax-M2.1
VS

MiniMax-M2
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
