
모델 비교
DeepSeek-V3.2
대
gpt-oss-120b
2026. 2. 15.
가격
Input
$
0.27
/ M Tokens
$
0.05
/ M Tokens
Output
$
0.42
/ M Tokens
$
0.45
/ M Tokens
메타데이터
사양
주
Available
Available
건축
DeepSeek Sparse Attention (DSA), Scalable Reinforcement Learning Framework, Large-Scale Agentic Task Synthesis Pipeline
Mixture of Experts
교정된
아니요
네
전문가의 혼합
아니요
네
총 매개변수
671B
120B
활성화된 매개변수
671B
5.1B
추론
아니요
아니요
Precision
FP8
FP8
콘텍스트 길이
164K
131K
Max Tokens
164K
8K
지원됨 기능
Serverless
지원됨
지원됨
Serverless LoRA
지원하지 않음
지원하지 않음
Fine-tuning
지원하지 않음
지원하지 않음
Embedding
지원하지 않음
지원하지 않음
Rerankers
지원하지 않음
지원하지 않음
지원 Image Input
지원하지 않음
지원하지 않음
JSON Mode
지원됨
지원됨
구조화된 Outputs
지원하지 않음
지원하지 않음
도구
지원됨
지원하지 않음
Fim Completion
지원하지 않음
지원하지 않음
Chat Prefix Completion
지원됨
지원하지 않음
DeepSeek-V3.2비교에서
보세요 어떻게 DeepSeek-V3.2다른 인기 있는 모델과 주요 측면에서 비교합니다.
VS

MiniMax-M2.5
VS

GLM-5
VS

Step-3.5-Flash
VS

GLM-4.7
VS

GLM-4.7
VS

MiniMax-M2.1
VS

GLM-4.6V
VS

Kimi-K2-Thinking
VS

MiniMax-M2
VS
DeepSeek-V3.2-Exp
VS

GLM-4.6
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Ring-flash-2.0
VS

Ling-flash-2.0
VS

Kimi-K2-Instruct-0905
VS

GLM-4.5V
VS
gpt-oss-120b
VS

step3
VS

Qwen3-235B-A22B-Thinking-2507
