关于DeepSeek-V3.2
DeepSeek-V3.2 是一个模型,结合了高计算效率与卓越的推理和智能体性能。其方法基于三个关键技术突破:DeepSeek 稀疏注意力(DSA),这是一种有效的注意力机制,在保持模型性能的情况下大幅降低了计算复杂度,特别优化于长上下文场景;一个可扩展的强化学习框架,使得其性能可与 GPT-5 比拟,推理能力与高计算变体的 Gemini-3.0-Pro 相当;以及一个大型智能任务合成管道,将推理整合到工具使用场景中,提高在复杂交互环境中的合规性和泛化能力。该模型在 2025 年国际数学奥林匹克(IMO)和国际信息学奥林匹克竞赛(IOI)中取得了金牌成绩。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.27
/
$
0.42
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
不
专家混合
不
总参数
671B
激活的参数
671B
推理
不
精度
FP8
上下文长度
164K
最大输出长度
164K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。
DeepSeek
chat
DeepSeek-V3.2
发行日期:2025年12月4日
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
chat
DeepSeek-V3.2-Exp
发行日期:2025年10月10日
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1-Terminus
发行日期:2025年9月29日
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1
发行日期:2025年8月25日
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
chat
DeepSeek-V3
发行日期:2024年12月26日
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
chat
DeepSeek-R1
发行日期:2025年5月28日
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-32B
发行日期:2025年1月20日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-14B
发行日期:2025年1月20日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-7B
发行日期:2025年1月20日
上下文长度:
33K
最大输出长度:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens
