DeepSeek-V3.2がSiliconFlowで利用可能: エージェント用に構築された推論重視のModel

2025/12/08

目次

要約: DeepSeek-V3.2(V3.2-Expの公式バージョン)がSiliconFlowで稼働開始しました。エージェント向けに構築された理由重視のモードは、高効率をGPT-5レベルの推論性能と164Kのコンテキストウィンドウと組み合わせています。さらに、ツール利用機能を含む思考モード85K以上の複雑な指示と1,800以上の環境で検証されています。今すぐにSiliconFlowのAPIを使用してエージェントワークフローを強化しましょう。

私たちは、SiliconFlow上でDeepSeekの最新のModelDeepSeek-V3.2へのアクセスを解放することに興奮しています。計算効率と優れた推論、エージェント性能を調和させた新しいシリーズです。初のDeepSeekモデルとしてツール利用に直接思考を取り入れ、DeepSeek-V3.2はGPT-5レベルの推論を提供し、出力を大幅に短縮します。同時に、DeepSeek-V3.2-Specialeは定理証明とコーディングのオープンソースの境界をGemini 3 Proに匹敵するまで押し上げます。これらは、次世代AIエージェントを構築する開発者に新しい基準を設けています。

今すぐSiliconFlowのDeepSeek-V3.2 APIを通じて期待できるもの:

  • コスト効率の良い価格設定:

    • DeepSeek-V3.2 $0.27/M tokens (Input) および $0.42/M tokens (Output)

    • DeepSeek-V3.2-Specialeは近日公開される予定で、最新情報を乞うご期待

  • 164K コンテキストウィンドウ: 長い文書、複雑なマルチターン会話、拡張されたエージェントタスクに最適です。

  • シームレスな統合: SiliconFlow の OpenAI 互換 API を介して瞬時に展開するか、Claude Code, Gen-CLIおよびClineを通じて既存のスタックに接続します。


エージェント、コーディングアシスタント、または複雑な推論パイプラインを構築する際には、SiliconFlow の DeepSeek-V3.2 API は必要な性能を、期待されるコストと待ち時間のごく一部で提供します。


なぜ重要か

エージェントを構築する開発者、マルチステップの推論パイプライン、または思考と行動が必要なあらゆる AI システムにとって、DeepSeek-V3.2 シリーズはついに待望の組み合わせを提供します: 最前線級の推論、思考中のツール利用の統合、そして実世界の効率性:

  1. 世界をリードする推論能力

  • DeepSeek-V3.2: エージェントのための効率的な「日常ドライバー」

推論能力と出力の長さの間で完璧なバランスを追求して設計されたDeepSeek-V3.2は、高度なQ&Aや一般的なエージェントタスクなど、作業フローに最適な選択肢です。

  • 性能: GPT-5と同等の推論能力を提供します。

  • 効率性: Kimi-K2-Thinkingと比較して、V3.2は出力の長さが大幅に短くなり、計算上のオーバーヘッドが減少し、全体の生成時間が短縮されます


  • DeepSeek-V3.2-Speciale: 最大化された推論能力(研究プレビュー)

V3.2の強化された長距離思考バリアントであるV3.2-Specialeは、オープンソースの推論能力の境界を押し広げ、DeepSeek-Math-V2の定理証明能力を統合することを目指しています。

  • ゴールドメダル性能: V3.2-SpecialeはIMO, CMO, ICPC World Finals & IOI 2025で金メダルレベルの結果を達成します。

  • ベンチマーク: 複雑な指示のフォロー、厳密な数学的推論と論理の検証に優れ、主流の推論リーダーボードでGemini 3 Proに匹敵します。


ベンチマーク

DeepSeek-V3.2 Speciale

DeepSeek-V3.2 Thinking

GPT-5 High

Gemini-3.0 Pro

Kimi-K2 Thinking

AIME 2025

🥇96.0 (23k)

93.1 (16k)

94.6 (13k)

95.0 (15k)

94.5 (24k)

HMMT Feb 2025

🥇99.2 (27k)

92.5 (19k)

88.3 (16k)

97.5 (16k)

89.4 (31k)

HMMT Nov 2025

🥇94.4 (25k)

90.2 (18k)

89.2 (20k)

93.3 (15k)

89.2 (29k)

IMOAnswerBench

🥇84.5 (45k)

78.3 (27k)

76.0 (31k)

83.3 (18k)

78.6 (37k)

LiveCodeBench

88.7 (27k)

83.3 (16k)

84.5 (13k)

90.7 (13k)

82.6 (29k)

CodeForces

2701 (77k)

2386 (42k)

2537 (29k)

2708 (22k)

-

GPQA Diamond

85.7 (16k)

82.4 (7k)

85.7 (8k)

91.9 (8k)

84.5 (12k)

HLE

30.6 (35k)

25.1 (21k)

26.3 (15k)

37.7 (15k)

23.9 (24k)

かっこ内の数字は、推定される総トークン消費量を示しています。


  1. ツール利用での思考

DeepSeek-V3.2は「理由」と「行動」の間の障壁を打破します。以前のバージョンでは、思考プロセス中にツール使用が制限されていましたが、DeepSeek-V3.2は初めてツール利用に直接思考をシームレスに統合し、ThinkingモードとNon-Thinkingモードの両方でのツール呼び出しをサポートします。

このレベルのエージェント信頼性を提供するために、DeepSeekは大規模なトレーニング合成方法を導入しました:

  • 頑健な一般化: モデルは「解きにくいが検証しやすい」強化学習タスクを通じて鍛えられました。

  • 広範囲のカバレッジ: トレーニングは1,800以上の異なる環境85,000以上の複雑な指示を通じて行われ、エージェントコンテキストでのモデルの一般化と指示フォロー能力を大幅に強化しました。


ベンチマーク

DeepSeek-V3.2-Thinking

GPT-5-High

Gemini-3.0-Pro

Kimi-K2-Thinking

MiniMax M2

τ² Bench (Pass@1)

80.3

80.2

85.4

74.3

76.9

MCP-Universe

45.9

47.9

50.7

35.6

29.4

MCP-Mark

38

50.9

43.1

20.4

24.4

Tool Decathlon (Pass@1)

35.2

29

36.4

17.6

16


これがワークフローに何を意味するか:

DeepSeek-V3.2は、エージェントシナリオにおける非常にコスト効率の良い選択肢として登場し、オープンと最前線の独自モデルの間の性能ギャップを大幅に縮小し、かなり低いコストで提供します—すべてがSiliconFlowのAPIを通じて利用可能です。

SiliconFlowのDeepSeek-V3.2 APIを使用して構築された例を示します。この例は、モデルがリアルタイムインタラクティブコードに関して書き込み、最適化、推論するのを助ける方法を示しています。


その力の源

DeepSeek-V3.2シリーズの性能は、3つの核心技術革新によって可能になっています:

  • DeepSeek Sparse Attention (DSA):

長いコンテキストの処理の課題に取り組むためにモデルは、DeepSeek Sparse Attention (DSA)を導入しました。この効率的なAttentionメカニズムは、性能を損なうことなく計算複雑性を大幅に削減し、特に長いコンテキストのシナリオに最適化されています。

  • スケーラブル強化学習:

DeepSeek-V3.2は、スケールされたポストトレーニングコンピュートと組み合わせた強力な強化学習(RL)プロトコルを活用しています。この高度なトレーニングフレームワークは、モデルの卓越した推論能力の背後にある主要なドライバーです。

  • 大規模なエージェントタスク合成パイプライン:

DeepSeekは、斬新な大規模なエージェントタスク合成パイプラインを通じてエージェントの能力を革命化しました。トレーニングデータを体系的にスケールで生成することにより、モデルはツール利用シナリオに直接推論を統合します。これにより、優れたコンプライアンスと一般化が実現され、あなたのエージェントが複雑で多ステップのインタラクティブ環境で精度を持って確実にナビゲートできるようになります。


開発者準備の統合

DeepSeek-V3.2の業界をリードするエージェント性能だけでなく、SiliconFlowはあなたの既存の開発エコシステムとの即時互換性を提供します:

  • OpenAI互換ツール: Cline, Qwen Code, Gen-CLIとその他の標準的な開発環境とのシームレスな統合 - 単にSiliconFlowのAPIキーをプラグインするだけ。

  • 人類互換API: Claude Codeとコードレビュー、デバッグ、アーキテクチャリファクタリングのための人類互換ツールと共に動作します。

  • プラットフォーム統合: Dify, ChatHub, Chatbox, Sider, MindSearch, DB-GPT, またOpenRouterを通じて利用可能です。

強力なModel、シームレスな統合、競争力のある価格により、SiliconFlowはあなたの構築方法を変革し、迅速な出荷とスマートなスケールを可能にします。


すぐに始める

  1. 探索する: DeepSeek-V3.2をSiliconFlow Playgroundで試してみてください。

  2. 統合する: 我々のOpenAI互換APIを使用してください。SiliconFlow API documentationで完全なAPI仕様を探索してください。

      import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "deepseek-ai/DeepSeek-V3.2",
    "messages": [
        {
            "role": "user",
            "content": "an island near sea, with seagulls, moon shining over the sea, light house, boats int he background, fish flying over the sea"
        }
    ],
    "stream": True,
    "max_tokens": 4096,
    "enable_thinking": False,
    "thinking_budget": 4096,
    "min_p": 0,
    "stop": "1",
    "temperature": 0.7,
    "top_p": 0.7,
    "top_k": 50,
    "frequency_penalty": 0.5,
    "n": 1,
    "response_format": { "type": "json_object" },
    "tools": [
        {
            "type": "function",
            "function": {
                "name": "<string>",
                "description": "<string>",
                "parameters": {},
                "strict": False
            }
        }
    ]
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(response.text)


AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow