

Perbandingan Model
GLM-4.6
vs
Qwen2.5-VL-72B-Instruct
28 Feb 2026

Harga
Input
$
0.39
/ M Tokens
$
0.59
/ M Tokens
Output
$
1.9
/ M Tokens
$
0.59
/ M Tokens
Metadata
Spesifikasi
Negara
Available
Available
Arsitektur
Mixture of Experts Transformer
Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.
Terkalibrasi
Ya
Tidak
Campuran Ahli
Ya
Tidak
Total Parameter
335B
72B
Parameter yang Diaktifkan
72B
Penalaran
Tidak
Tidak
Precision
FP8
FP8
Text panjang konteks
205K
131K
Max Tokens
205K
4K
Didukung Keberfungsian
Serverless
didukung
didukung
Serverless LoRA
Tidak didukung
Tidak didukung
Fine-tuning
Tidak didukung
Tidak didukung
Embeddings
Tidak didukung
Tidak didukung
Rerankers
Tidak didukung
Tidak didukung
Dukung Image Input
Tidak didukung
Tidak didukung
JSON Mode
didukung
Tidak didukung
Output Terstruktur
Tidak didukung
Tidak didukung
Alat
didukung
Tidak didukung
Fim Completion
Tidak didukung
Tidak didukung
Chat Prefix Completion
didukung
didukung
GLM-4.6dalam Perbandingan
Lihat bagaimana GLM-4.6membandingkan dengan model populer lainnya di berbagai dimensi kunci.
VS

MiniMax-M2.5
VS

GLM-5
VS

Step-3.5-Flash
VS

GLM-4.7
VS

MiniMax-M2.1
VS

GLM-4.6V
VS

Kimi-K2-Thinking
VS

MiniMax-M2
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Ring-flash-2.0
VS

Ling-flash-2.0
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS

Kimi-K2-Instruct-0905
VS
gpt-oss-120b
VS

step3
VS

Qwen3-235B-A22B-Thinking-2507
VS

Qwen3-Coder-480B-A35B-Instruct
VS

Qwen3-235B-A22B-Instruct-2507
