

Perbandingan Model
GLM-4.6V
vs
Qwen2.5-VL-72B-Instruct
28 Feb 2026

Harga
Input
$
0.3
/ M Tokens
$
0.59
/ M Tokens
Output
$
0.9
/ M Tokens
$
0.59
/ M Tokens
Metadata
Spesifikasi
Negara
Available
Available
Arsitektur
Multimodal with Function Calling, Mixture of Experts (MoE)
Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.
Terkalibrasi
Ya
Tidak
Campuran Ahli
Ya
Tidak
Total Parameter
106B
72B
Parameter yang Diaktifkan
106B
72B
Penalaran
Tidak
Tidak
Precision
FP8
FP8
Text panjang konteks
131K
131K
Max Tokens
131K
4K
Didukung Keberfungsian
Serverless
didukung
didukung
Serverless LoRA
Tidak didukung
Tidak didukung
Fine-tuning
Tidak didukung
Tidak didukung
Embeddings
Tidak didukung
Tidak didukung
Rerankers
Tidak didukung
Tidak didukung
Dukung Image Input
Tidak didukung
Tidak didukung
JSON Mode
Tidak didukung
Tidak didukung
Output Terstruktur
Tidak didukung
Tidak didukung
Alat
didukung
Tidak didukung
Fim Completion
Tidak didukung
Tidak didukung
Chat Prefix Completion
Tidak didukung
didukung
GLM-4.6Vdalam Perbandingan
Lihat bagaimana GLM-4.6Vmembandingkan dengan model populer lainnya di berbagai dimensi kunci.
VS

MiniMax-M2.5
VS

GLM-5
VS

Step-3.5-Flash
VS

GLM-4.7
VS

MiniMax-M2.1
VS

MiniMax-M2
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Ling-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
