DeepSeek-V3.2 이제 SiliconFlow에서 사용 가능: 에이전트를 위해 구축된 추론 우선 Model

2025. 12. 8.

목차

요약: DeepSeek-V3.2 (V3.2-Exp의 공식 버전)이 이제 SiliconFlow에서 라이브입니다. 에이전트를 위한 추론 우선 모델로, 높은 효율성을 GPT-5 수준의 추론 성능과 164K 컨텍스트 윈도우와 결합합니다. 또한 사고 모드에서 도구 사용 기능을 갖추고 있으며, 85K+ 복잡한 지침과 1,800+ 환경에서 검증되었습니다. 오늘부터 SiliconFlow의 API를 사용하여 에이전트 워크플로우를 강화하세요.

DeepSeek의 최신 모델, DeepSeek-V3.2에 대한 액세스를 열게 되어 기쁩니다. 이는 계산 효율성과 우수한 추론 및 에이전트 성능을 조화롭게 결합한 새로운 시리즈입니다. 사고를 도구 사용에 직접 통합한 첫 번째 DeepSeek Model로서, DeepSeek-V3.2는 GPT-5 수준의 추론을 제공하며 출력이 상당히 짧습니다. 한편, DeepSeek-V3.2-Speciale은 정리 증명 및 코딩의 오픈 소스 경계를 확장하여 Gemini 3 Pro와 경쟁합니다. 함께 이들은 차세대 AI 에이전트를 구축하려는 개발자들에게 새로운 기준을 제시합니다.

이제, SiliconFlow의 DeepSeek-V3.2 API를 통해 다음 기능을 기대할 수 있습니다:

  • 경제적인 가격 책정:

    • DeepSeek-V3.2 $0.27/백만 token (입력) 및 $0.42/백만 token (출력)

    • DeepSeek-V3.2-Speciale는 곧 출시 예정이며 직접 최신 정보를 확인하세요

  • 164K 컨텍스트 윈도우: 긴 문서, 복잡한 다회전 대화 및 확장된 에이전트 작업에 적합합니다.

  • 원활한 통합: SiliconFlow의 OpenAI 호환 API를 통해 즉시 배포하거나 Claude Code, Gen-CLI 및 Cline을 통해 기존 스택에 플러그인하세요.


에이전트, 코딩 어시스턴트, 또는 복잡한 추론 파이프라인을 구축하고 있든 간에, SiliconFlow의 DeepSeek-V3.2 API는 기대되는 비용과 지연 시간의 일부로 필요한 성능을 제공합니다.


왜 중요한가

에이전트를 구축하거나, 다단계 추론 파이프라인 또는 사고하고 행동할 수 있는 AI 시스템을 필요로 하는 개발자들에게 DeepSeek-V3.2 시리즈는 업계가 기다리던 조합을 제공합니다: 최첨단 추론, 사고 중 도구 사용 통합, 및 현실 세계의 효율성:

  1. 세계 최고 수준의 추론 능력

  • DeepSeek-V3.2: 에이전트를 위한 효율적인 "데일리 드라이버"

추론 능력과 출력 길이 사이에서 완벽한 균형을 이루도록 설계된 DeepSeek-V3.2는 고급 Q&A 및 일반 에이전트 작업과 같은 프로덕션 워크플로우의 기본 선택입니다.

  • 성능: GPT-5 수준의 추론 능력을 제공합니다.

  • 효율성: Kimi-K2-Thinking과 비교했을 때, V3.2는 출력 길이가 상당히 짧아,더 낮은 계산 오버헤드와 전체 생성 시간 단축을 실현합니다.


  • DeepSeek-V3.2-Speciale: 최대 추론 능력 (연구 미리보기)

V3.2의 향상된 장기 사고 변형인 V3.2-Speciale은 DeepSeek-Math-V2의 정리 증명 능력을 통합하여 오픈 소스 추론 능력의 경계를 확장하려고 합니다.

  • 금메달급 성능: V3.2-Speciale은 IMO, CMO, ICPC World Finals & IOI 2025에서 금메달급 결과를 달성합니다.

  • 벤치마크: 복잡한 지침 따르기, 엄격한 수학적 추론 및 논리적 검증에서 Gemini 3 Pro와 효과적으로 경쟁합니다.


벤치마크

DeepSeek-V3.2 Speciale

DeepSeek-V3.2 Thinking

GPT-5 High

Gemini-3.0 Pro

Kimi-K2 Thinking

AIME 2025

🥇96.0 (23k)

93.1 (16k)

94.6 (13k)

95.0 (15k)

94.5 (24k)

HMMT Feb 2025

🥇99.2 (27k)

92.5 (19k)

88.3 (16k)

97.5 (16k)

89.4 (31k)

HMMT Nov 2025

🥇94.4 (25k)

90.2 (18k)

89.2 (20k)

93.3 (15k)

89.2 (29k)

IMOAnswerBench

🥇84.5 (45k)

78.3 (27k)

76.0 (31k)

83.3 (18k)

78.6 (37k)

LiveCodeBench

88.7 (27k)

83.3 (16k)

84.5 (13k)

90.7 (13k)

82.6 (29k)

CodeForces

2701 (77k)

2386 (42k)

2537 (29k)

2708 (22k)

-

GPQA Diamond

85.7 (16k)

82.4 (7k)

85.7 (8k)

91.9 (8k)

84.5 (12k)

HLE

30.6 (35k)

25.1 (21k)

26.3 (15k)

37.7 (15k)

23.9 (24k)

괄호 안의 숫자는 대략적인 총 token 소비량을 나타냅니다.


  1. 도구 사용 중 사고

DeepSeek-V3.2는 "추론"과 "행동" 사이의 장벽을 허물었습니다. 이전 버전에서는 사고 과정 중 도구 사용이 제한되었지만, DeepSeek-V3.2는 생각을 도구 사용에 직접 통합하여 사고 및 비사고 모드 모두에서 도구 호출을 지원하는 첫 번째 모델입니다.

이 수준의 에이전트 신뢰성을 제공하기 위해 DeepSeek는 대규모 훈련 합성 방법을 도입하였습니다:

  • 강력한 일반화: 이 Model은 "풀기 어려우면서 검증은 쉬운" 강화 학습 과제를 통해 단련되었습니다.

  • 광범위한 적용 범위: 훈련은 1,800+ 개의 개별 환경85,000+ 복잡한 지침을 포괄하여, 에이전트 맥락에서 Model의 일반화 및 지침 따르기 능력을 크게 향상시켰습니다.


벤치마크

DeepSeek-V3.2-Thinking

GPT-5-High

Gemini-3.0-Pro

Kimi-K2-Thinking

MiniMax M2

τ² Bench (Pass@1)

80.3

80.2

85.4

74.3

76.9

MCP-Universe

45.9

47.9

50.7

35.6

29.4

MCP-Mark

38

50.9

43.1

20.4

24.4

도구 Decathlon (Pass@1)

35.2

29

36.4

17.6

16


귀하의 워크플로우에 대한 의미:

DeepSeek-V3.2는 에이전트 시나리오에서 매우 비용 효율적인 대안으로 나타나며, 개방형 및 최첨단 독점 모델들 사이의 성능 격차를 상당히 줄이면서도 비용은 훨씬 적게 발생합니다 - 모든 것이 SiliconFlow의 API를 통해 가능합니다.

SiliconFlow의 DeepSeek-V3.2 API를 사용하여 실시간 상호작용 코드에 대해 작성, 최적화 및 추론하는 방법을 보여주는 예를 확인하세요.


강력함의 이유

DeepSeek-V3.2 시리즈의 성능은 세 가지 핵심 기술 혁신에 의해 가능해졌습니다:

  • DeepSeek Sparse Attention (DSA):

긴 컨텍스트 처리의 문제를 해결하기 위해, 이 Model은 DeepSeek Sparse Attention (DSA)을 도입했습니다. 이 효율적인 주의 메커니즘은 성능을 손상시키지 않으면서 계산 복잡성을 크게 줄이며, 긴 컨텍스트 시나리오에 최적화되어 있습니다.

  • 확장 가능한 강화 학습:

DeepSeek-V3.2는 강력한 강화 학습 (RL) 프로토콜과 확장된 사후 훈련 계산을 결합한 방법을 활용합니다. 이 고급 훈련 프레임워크는 Model의 뛰어난 추론 능력의 주요 원동력입니다.

  • 대규모 에이전트 작업 합성 파이프라인:

DeepSeek은 참신한 대규모 에이전트 작업 합성 파이프라인을 통해 에이전트 역량을 혁신했습니다. 체계적으로 대규모 훈련 데이터를 생성하여, Model은 추론을 직접적으로 도구 사용 시나리오에 통합합니다. 이는 더 우수한 준법성과 일반화를 초래하며, 귀하의 에이전트가 복잡하고 다단계의 상호작용 환경을 정확히 탐색할 수 있도록 보장합니다.


개발자 친화적인 통합

DeepSeek-V3.2의 업계 최고 에이전트 성능을 넘어, SiliconFlow는 귀하의 기존 개발 생태계와의 즉각적인 호환성을 제공합니다:

  • OpenAI 호환 도구: Cline, Qwen Code, Gen-CLI 및 기타 표준 개발 환경과의 원활한 통합 — SiliconFlow API 키를 플러그인하세요.

  • Anthropic 호환 API: 코드 리뷰, 디버깅 및 아키텍처 리팩토링을 위해 Claude Code 및 모든 Anthropic 호환 도구에서 작동합니다.

  • 플랫폼 통합: Dify, ChatHub, Chatbox, Sider, MindSearch, DB-GPT에서 바로 사용할 수 있으며 OpenRouter를 통해서도 사용할 수 있습니다.

강력한 모델, 원활한 통합 및 경쟁력 있는 가격으로 SiliconFlow는 구축 방식을 혁신하여 더 빨리 출하시킬 수 있게 하고, 더 스마트하게 확장할 수 있게 합니다.


즉시 시작하세요

  1. 탐색하기: SiliconFlow Playground에서 DeepSeek-V3.2를 시도해 보세요.

  2. 통합하기: OpenAI 호환 API를 사용하세요. SiliconFlow API 문서에서 전체 API 사양을 탐색하세요.

      import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "deepseek-ai/DeepSeek-V3.2",
    "messages": [
        {
            "role": "user",
            "content": "an island near sea, with seagulls, moon shining over the sea, light house, boats int he background, fish flying over the sea"
        }
    ],
    "stream": True,
    "max_tokens": 4096,
    "enable_thinking": False,
    "thinking_budget": 4096,
    "min_p": 0,
    "stop": "1",
    "temperature": 0.7,
    "top_p": 0.7,
    "top_k": 50,
    "frequency_penalty": 0.5,
    "n": 1,
    "response_format": { "type": "json_object" },
    "tools": [
        {
            "type": "function",
            "function": {
                "name": "<string>",
                "description": "<string>",
                "parameters": {},
                "strict": False
            }
        }
    ]
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(response.text)


AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow