

모델 비교
GLM-4.1V-9B-Thinking
대
Qwen3-Omni-30B-A3B-Thinking
2026. 2. 28.

가격
Input
$
0.035
/ M Tokens
$
0.1
/ M Tokens
Output
$
0.14
/ M Tokens
$
0.4
/ M Tokens
메타데이터
사양
주
Deprecated
Available
건축
Vision-Language Model (VLM) based on GLM-4-9B-0414 with thinking paradigm
Thinker-Talker, MoE-based
교정된
아니요
아니요
전문가의 혼합
아니요
네
총 매개변수
9B
30B
활성화된 매개변수
9B
30B
추론
아니요
아니요
Precision
FP8
FP8
콘텍스트 길이
66K
66K
Max Tokens
66K
66K
지원됨 기능
Serverless
지원됨
지원됨
Serverless LoRA
지원하지 않음
지원하지 않음
Fine-tuning
지원하지 않음
지원하지 않음
Embedding
지원하지 않음
지원하지 않음
Rerankers
지원하지 않음
지원하지 않음
지원 Image Input
지원하지 않음
지원하지 않음
JSON Mode
지원하지 않음
지원됨
구조화된 Outputs
지원하지 않음
지원하지 않음
도구
지원하지 않음
지원됨
Fim Completion
지원하지 않음
지원됨
Chat Prefix Completion
지원하지 않음
지원됨
GLM-4.1V-9B-Thinking비교에서
보세요 어떻게 GLM-4.1V-9B-Thinking다른 인기 있는 모델과 주요 측면에서 비교합니다.
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS

Ling-mini-2.0
VS

Hunyuan-MT-7B
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

Hunyuan-A13B-Instruct
VS

Qwen3-14B
VS

Qwen3-30B-A3B
