정보에 대해서DeepSeek-V3.2-Exp
DeepSeek-V3.2-Exp는 DeepSeek Model의 실험 버전으로, V3.1-Terminus를 기반으로 구축되었습니다. 긴 컨텍스트에 대해 더 빠르고 효율적인 학습 및 Inference를 위해 DeepSeek Sparse Attention(DSA)를 선보입니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.27
/
$
0.41
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
아니요
전문가의 혼합
아니요
총 매개변수
671B
활성화된 매개변수
추론
아니요
Precision
FP8
콘텍스트 길이
164K
Max Tokens
164K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원됨
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원됨
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.
DeepSeek
chat
DeepSeek-V3.2
출시일: 2025. 12. 4.
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
chat
DeepSeek-V3.2-Exp
출시일: 2025. 10. 10.
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1-Terminus
출시일: 2025. 9. 29.
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1
출시일: 2025. 8. 25.
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3
출시일: 2024. 12. 26.
Total Context:
164K
Max output:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-R1
출시일: 2025. 5. 28.
Total Context:
164K
Max output:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-32B
출시일: 2025. 1. 20.
Total Context:
131K
Max output:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-14B
출시일: 2025. 1. 20.
Total Context:
131K
Max output:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-7B
출시일: 2025. 1. 20.
Total Context:
33K
Max output:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens
