DeepSeek
Text Generation
DeepSeek-V3.2
DeepSeek-V3.2 是一个模型,结合了高计算效率与卓越的推理和智能体性能。其方法基于三个关键技术突破:DeepSeek 稀疏注意力(DSA),这是一种有效的注意力机制,在保持模型性能的情况下大幅降低了计算复杂度,特别优化于长上下文场景;一个可扩展的强化学习框架,使得其性能可与 GPT-5 比拟,推理能力与高计算变体的 Gemini-3.0-Pro 相当;以及一个大型智能任务合成管道,将推理整合到工具使用场景中,提高在复杂交互环境中的合规性和泛化能力。该模型在 2025 年国际数学奥林匹克(IMO)和国际信息学奥林匹克竞赛(IOI)中取得了金牌成绩。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2-Exp
DeepSeek-V3.2-Exp 是 DeepSeek 模型的一个实验版本,基于 V3.1-Terminus 构建。它首次引入 DeepSeek Sparse Attention(DSA),实现了对长上下文的更快速、更高效的训练和推理。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1-Terminus
DeepSeek-V3.1-Terminus 是一个更新版本,建立在 V3.1 的优势上,同时解决关键用户反馈问题。它在语言一致性方面有所改进,减少了中英文混合文本和偶尔出现的异常字符。同时,还在 Code Agent 和 Search Agent 性能上进行了升级。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1
DeepSeek-V3.1是一种混合模型,支持思维模式和非思维模式。通过后期训练优化,该模型在工具使用和代理任务方面的性能显著提高。DeepSeek-V3.1-Think在回答质量上可与DeepSeek-R1-0528相媲美,同时响应速度更快。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3
DeepSeek-V3-0324 在多个关键方面表现出明显的改进,超越了它的前身 DeepSeek-V3,包括推理性能的大幅提升、更强的前端开发技能和更智能的工具使用能力。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.25
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1
DeepSeek-R1-0528 是一个升级的模型,在处理复杂的推理任务方面显示了显著的改进,同时提供了更低的幻觉率,增强了对函数调用的支持,并且在情感编码方面提供了更好的体验。其性能与 O3 和 Gemini 2.5 Pro 相当。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.5
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
2.18
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-32B
DeepSeek-R1-Distill-Qwen-32B 是一个基于 Qwen2.5-32B 的蒸馏模型。该模型使用 DeepSeek-R1 生成的 80 万精选样本进行了微调,并在数学、编程和推理任务中表现卓越。它在包括 AIME 2024、MATH-500 和 GPQA Diamond 在内的各项基准测试中取得了令人印象深刻的成绩,其中在 MATH-500 上的准确率达到 94.3%,展示了其强大的数学推理能力。...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.18
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.18
/ M Tokens

