

모델 비교
Qwen2.5-32B-Instruct
대
Qwen2.5-VL-7B-Instruct
2026. 2. 28.

가격
Input
$
0.18
/ M Tokens
$
0.05
/ M Tokens
Output
$
0.18
/ M Tokens
$
0.05
/ M Tokens
메타데이터
생성하다
2024. 9. 17.
2025. 1. 26.
라이센스
APACHE-2.0
APACHE-2.0
공급자
Qwen
Qwen
사양
주
Available
Available
건축
transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias
Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.
교정된
아니요
아니요
전문가의 혼합
네
아니요
총 매개변수
32B
7B
활성화된 매개변수
32.5B
7B
추론
아니요
아니요
Precision
FP8
FP8
콘텍스트 길이
33K
33K
Max Tokens
4K
4K
지원됨 기능
Serverless
지원됨
지원됨
Serverless LoRA
지원하지 않음
지원하지 않음
Fine-tuning
지원하지 않음
지원하지 않음
Embedding
지원하지 않음
지원하지 않음
Rerankers
지원하지 않음
지원하지 않음
지원 Image Input
지원하지 않음
지원하지 않음
JSON Mode
지원됨
지원하지 않음
구조화된 Outputs
지원하지 않음
지원하지 않음
도구
지원됨
지원하지 않음
Fim Completion
지원하지 않음
지원하지 않음
Chat Prefix Completion
지원됨
지원됨
Qwen2.5-32B-Instruct비교에서
보세요 어떻게 Qwen2.5-32B-Instruct다른 인기 있는 모델과 주요 측면에서 비교합니다.
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

Qwen3-14B
VS

Qwen3-30B-A3B
VS

Qwen3-32B
