Perbandingan Model

Ling-flash-2.0

vs

Qwen2.5-VL-72B-Instruct

28 Feb 2026

Harga

Input

$

0.14

/ M Tokens

$

0.59

/ M Tokens

Output

$

0.57

/ M Tokens

$

0.59

/ M Tokens

Metadata

Buat di

17 Sep 2025

27 Jan 2025

Lisensi

MIT LICENSE

-

Penyedia

inclusionAI

Qwen

Spesifikasi

Negara

Available

Available

Arsitektur

Ling 2.0 MoE architecture

Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.

Terkalibrasi

Tidak

Tidak

Campuran Ahli

Ya

Tidak

Total Parameter

100B

72B

Parameter yang Diaktifkan

6.1B

72B

Penalaran

Tidak

Tidak

Precision

FP8

FP8

Text panjang konteks

131K

131K

Max Tokens

131K

4K

Didukung Keberfungsian

Serverless

didukung

didukung

Serverless LoRA

Tidak didukung

Tidak didukung

Fine-tuning

Tidak didukung

Tidak didukung

Embeddings

Tidak didukung

Tidak didukung

Rerankers

Tidak didukung

Tidak didukung

Dukung Image Input

Tidak didukung

Tidak didukung

JSON Mode

didukung

Tidak didukung

Output Terstruktur

Tidak didukung

Tidak didukung

Alat

didukung

Tidak didukung

Fim Completion

Tidak didukung

Tidak didukung

Chat Prefix Completion

didukung

didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow