目录

长话短说:DeepSeek-V3.2 (V3.2-Exp 的官方版本)现已在SiliconFlow上线。作为一个为代理构建的以推理为先的模型,它结合了高效性和与GPT-5级推理性能和164K上下文窗口。它还具备在思考模式中使用工具的能力,经过超过85K+复杂指令和1,800+环境的验证。今天就开始使用SiliconFlow's API来增强你的代理工作流。
我们很高兴地开放对DeepSeek最新模型的访问,DeepSeek-V3.2在SiliconFlow上,这个新系列整合了计算效率与卓越的推理和代理性能。作为第一个直接将思考整合到工具使用中的DeepSeek模型,DeepSeek-V3.2提供了与GPT-5 同级别的推理,且输出显著缩短。同时,DeepSeek-V3.2-Speciale打破开源界限,在定理证明和编码方面可以媲美Gemini 3 Pro。二者共同为开发人员打造次世代 AI 代理树立了新的标杆。
现在,通过SiliconFlow的DeepSeek-V3.2 API,你可以期待:
价格优惠:
DeepSeek-V3.2 $0.27/M tokens(Input)和$0.42/M tokens(Output)
DeepSeek-V3.2-Speciale即将推出,请关注第一手更新
164K 上下文窗口:非常适合长文件,复杂多轮对话和扩展的代理任务。
无缝集成:通过SiliconFlow的OpenAI兼容API立即部署,或通过Claude Code、Gen-CLI 和 Cline 插入到现有堆栈中。
无论你是在构建代理、编码助手,还是复杂的推理管道,SiliconFlow的DeepSeek-V3.2 API都能以低于预期的成本和延迟提供你所需的性能。
为何重要
对于构建代理、多步骤推理管道或任何需要思考和行动的 AI 系统的开发人员来说,DeepSeek-V3.2 系列最终提供了久违的组合:前沿级推理、在思考期间集成工具使用和真实世界效率:
世界领先的推理能力
DeepSeek-V3.2:代理的高效"日常驱动器"
设计完美平衡推理能力和输出长度,DeepSeek-V3.2是你用于生产工作流的首选,例如高级问答和一般代理任务。
性能:提供与GPT-5同等的推理能力。
效率:与Kimi-K2-Thinking相比,V3.2的输出长度显著缩短,转化为更低的计算开销和减少的整体生成时间。
DeepSeek-V3.2-Speciale:推理能力已满(研究预览)
作为V3.2的增强长思考变体,V3.2-Speciale旨在突破开源推理能力的界限,集成DeepSeek-Math-V2的定理证明能力。
金牌性能:V3.2-Speciale在IMO, CMO, ICPC World Finals & IOI 2025中获得金牌级别的成果。
基准:在复杂说明拟合、严格的数学推理和逻辑验证方面表现卓越,有效地在主流推理排行榜上媲美Gemini 3 Pro。
基准 | DeepSeek-V3.2 Speciale | DeepSeek-V3.2 思考 | GPT-5 高级 | Gemini-3.0 Pro | Kimi-K2 思考 |
AIME 2025 | 🥇96.0 (23k) | 93.1 (16k) | 94.6 (13k) | 95.0 (15k) | 94.5 (24k) |
HMMT 2025 年 2 月 | 🥇99.2 (27k) | 92.5 (19k) | 88.3 (16k) | 97.5 (16k) | 89.4 (31k) |
HMMT 2025 年 11 月 | 🥇94.4 (25k) | 90.2 (18k) | 89.2 (20k) | 93.3 (15k) | 89.2 (29k) |
IMOAnswerBench | 🥇84.5 (45k) | 78.3 (27k) | 76.0 (31k) | 83.3 (18k) | 78.6 (37k) |
LiveCodeBench | 88.7 (27k) | 83.3 (16k) | 84.5 (13k) | 90.7 (13k) | 82.6 (29k) |
CodeForces | 2701 (77k) | 2386 (42k) | 2537 (29k) | 2708 (22k) | - |
GPQA 钻石 | 85.7 (16k) | 82.4 (7k) | 85.7 (8k) | 91.9 (8k) | 84.5 (12k) |
HLE | 30.6 (35k) | 25.1 (21k) | 26.3 (15k) | 37.7 (15k) | 23.9 (24k) |
括号中的数字表示大约的总token消耗。
在工具使用中进行思考
DeepSeek-V3.2打破了“推理”和“行动”之间的屏障。与以往版本中在思考过程中工具使用受到限制不同,DeepSeek-V3.2是第一个将思考直接无缝整合到工具使用中的版本,支持在思考和非思考模式下调用工具。
为了提供这种级别的代理可靠性,DeepSeek推出了大规模训练合成方法:
鲁棒泛化:模型通过「难解易证」的强化学习任务锻造而成。
广泛覆盖:训练跨越1,800+个不同环境和超过85,000+复杂指令,极大地增强了模型的泛化和指令遵循能力,在代理上下文中尤为显著。
基准 | DeepSeek-V3.2-思考 | GPT-5-高级 | Gemini-3.0-Pro | Kimi-K2-思考 | MiniMax M2 |
τ² Bench (Pass@1) | 80.3 | 80.2 | 85.4 | 74.3 | 76.9 |
MCP-Universe | 45.9 | 47.9 | 50.7 | 35.6 | 29.4 |
MCP-Mark | 38 | 50.9 | 43.1 | 20.4 | 24.4 |
工具十项全能 (Pass@1) | 35.2 | 29 | 36.4 | 17.6 | 16 |
这对你的工作流意味着什么:
DeepSeek-V3.2成为代理场景中的高性价比替代方案,显著缩小了开放和前沿专有模型之间的性能差距,同时大幅降低了成本——所有这些都可以通过SiliconFlow 的API 获取。
下面是一个使用SiliconFlow的DeepSeek-V3.2 API创建的示例,展示了模型如何帮助编写、优化和推理实时交互代码。

是什么让它强大
DeepSeek-V3.2系列的性能由三个核心技术突破助力:
DeepSeek 稀疏注意力(DSA):
为了解决长上下文处理的挑战,模型引入了DeepSeek 稀疏注意力(DSA)。这种高效的注意力机制在不中断性能的前提下显著降低了计算复杂度,特别针对长上下文场景进行了优化。
可扩展的强化学习:
DeepSeek-V3.2结合了稳健的强化学习(RL)协议和可扩展的事后训练计算。这一先进的训练框架是模型卓越推理能力背后的关键推动力。
大规模代理任务合成管道:
通过创新的大规模代理任务合成管道,DeepSeek彻底改变了代理功能。通过系统化地大规模生成训练数据,模型直接将推理整合到工具使用场景中。这带来了卓越的依从性和泛化性,确保你的代理能够精确地导航复杂、多步骤的交互环境。
开发者就绪集成
Beyond DeepSeek-V3.2's industry-leading agentic performance, SiliconFlow delivers instant compatibility with your existing development ecosystem:
OpenAI-Compatible Tools: Seamless integration with Cline, Qwen Code, Gen-CLI, and other standard development environments — just plug in your SiliconFlow API key.
Anthropic-Compatible API: Works with Claude Code and any Anthropic-compatible tools for code reviews, debugging, and architectural refactoring.
Platform Integrations: Ready-to-use in Dify, ChatHub, Chatbox, Sider, MindSearch, DB-GPT, and also available through OpenRouter.
With powerful 公里, seamless integrations, and competitive pricing, SiliconFlow transforms how you build — letting you ship faster and scale smarter.
立即开始
探索: 在SiliconFlow模型广场 中试用DeepSeek-V3.2 。
集成: 使用我们的 OpenAI 兼容 API。 在SiliconFlow API documentation中探索完整的 API 规范。
