DeepSeek-V3.2 Теперь на SiliconFlow: Модель, ориентированная на рассуждения, построенная для агентов

8 дек. 2025 г.

Содержание

Краткое содержание: DeepSeek-V3.2 (официальная версия V3.2-Exp) теперь доступна на SiliconFlow. Как модель, фокусирующаяся на рассуждениях, предназначенная для агентов, она сочетает в себе высокую эффективность с производительностью уровня GPT-5 и 164K контекстным окном. Она также обладает возможностями использования инструментов в режиме размышлений, проверенной на 85K+ сложных инструкций и 1,800+ сред. Начните строить уже сегодня с API SiliconFlow, чтобы модернизировать ваши агентные рабочие процессы.

Мы рады предоставить доступ к последней модели DeepSeek на SiliconFlow, DeepSeek-V3.2, новой серии, которая гармонизирует вычислительную эффективность с превосходным производительностью рассуждений и агентной производительностью. Как первая модель DeepSeek, интегрирующая размышления непосредственно в использование инструментов, DeepSeek-V3.2 обеспечивает уровень GPT-5 рассуждений с значительно более короткими выходными результатами. Между тем, DeepSeek-V3.2-Speciale продвигает границы open-source в доказательствах теорем и кодировании, соперничая с Gemini 3 Pro. Вместе они устанавливают новый стандарт для разработчиков, создающих агентные системы следующего поколения.

Теперь, через DeepSeek-V3.2 API от SiliconFlow, вы можете ожидать:

  • Экономичное ценообразование:

    • DeepSeek-V3.2 $0.27/M tokens (Input) и $0.42/M tokens (Output)

    • DeepSeek-V3.2-Speciale скоро появится, следите за обновлениями из первых рук

  • 164K контекстное окно: Идеально подходит для длинных документов, сложных многоэтапных разговоров и расширенных агентных задач.

  • Бесшовная интеграция: Мгновенно разворачивайтесь через совместимый с OpenAI API от SiliconFlow, или подключайтесь к вашему существующему стэку через Claude Code, Gen-CLI и Cline.


Независимо от того, создаете ли вы агентов, кодирующих помощников или сложные каналы рассуждений, DeepSeek-V3.2 API от SiliconFlow обеспечивает необходимую производительность с небольшой долей ожидаемых затрат и задержек.


Почему это важно

Для разработчиков, создающих агентов, многошаговые каналы рассуждений или любую AI систему, которая должна думать и действовать, серия DeepSeek-V3.2 наконец-то предлагает комбинацию, которую долго ожидала индустрия: передовые рассуждения, интегрированное использование инструментов во время мышления и эффективность реального мира:

  1. Мировые возможности рассуждений

  • DeepSeek-V3.2: Эффективный "ежедневный драйвер" для агентов

Созданная для идеального баланса между возможностями рассуждений и длиной выходных результатов, DeepSeek-V3.2 является вашим предпочтительным выбором для рабочих процессов производства, таких как передовые вопросы и ответы и общие задачи агентов.

  • Производительность: Обеспечивает возможности рассуждений на уровне GPT-5.

  • Эффективность: По сравнению с Kimi-K2-Thinking, V3.2 имеет значительно более короткие выходные длины, что приводит к меньшей вычислительной нагрузке и сокращенному общему времени генерации.


  • DeepSeek-V3.2-Speciale: Максимальные возможности рассуждений (предпросмотр научных исследований)

Как улучшенный вариант долгосрочного размышления V3.2, V3.2-Speciale стремится расширить границы open-source возможностей рассуждений, интегрируя возможности доказательства теорем DeepSeek-Math-V2.

  • Золотая производительность: V3.2-Speciale достигает золотого уровня результатов на IMO, CMO, Всемирном финале ICPC & IOI 2025.

  • Оценки: Она превосходит в сложном выполнении инструкций, строгом математическом рассуждении и логической верификации, эффективно соперничая с Gemini 3 Pro на основных биржах лидерированных рейтингов рассуждений.


Оценка

DeepSeek-V3.2 Speciale

DeepSeek-V3.2 Thinking

GPT-5 High

Gemini-3.0 Pro

Kimi-K2 Thinking

AIME 2025

🥇96.0 (23k)

93.1 (16k)

94.6 (13k)

95.0 (15k)

94.5 (24k)

HMMT Feb 2025

🥇99.2 (27k)

92.5 (19k)

88.3 (16k)

97.5 (16k)

89.4 (31k)

HMMT Nov 2025

🥇94.4 (25k)

90.2 (18k)

89.2 (20k)

93.3 (15k)

89.2 (29k)

IMOAnswerBench

🥇84.5 (45k)

78.3 (27k)

76.0 (31k)

83.3 (18k)

78.6 (37k)

LiveCodeBench

88.7 (27k)

83.3 (16k)

84.5 (13k)

90.7 (13k)

82.6 (29k)

CodeForces

2701 (77k)

2386 (42k)

2537 (29k)

2708 (22k)

-

GPQA Diamond

85.7 (16k)

82.4 (7k)

85.7 (8k)

91.9 (8k)

84.5 (12k)

HLE

30.6 (35k)

25.1 (21k)

26.3 (15k)

37.7 (15k)

23.9 (24k)

Число в скобках указывает приблизительное общее потребление token.


  1. Мышление в использовании инструментов

DeepSeek-V3.2 разрывает барьеры между "рассуждением" и "действием." В отличие от предыдущих версий, в которых использование инструментов было ограничено в процессе мышления, DeepSeek-V3.2 является первым, кто бесшовно интегрирует мышление непосредственно в использование инструментов, поддерживая взаимодействие с инструментами как в режиме мышления, так и в режиме без мышления.

Для достижения этого уровня агентной надежности DeepSeek вводит метод крупномасштабного синтеза обучения:

  • Надежная генерализация: Модель была создана через задачи обучения с подкреплением "трудно решать, легко проверять".

  • Обширное покрытие: Обучение охватывало 1,800+ различных сред и более 85,000+ сложных инструкций, значительно улучшая способность модели к генерализации и следованию инструкциям в контексте агентов.


Бенчмарк

DeepSeek-V3.2-Thinking

GPT-5-High

Gemini-3.0-Pro

Kimi-K2-Thinking

MiniMax M2

τ² Бенч (Pass@1)

80.3

80.2

85.4

74.3

76.9

MCP-Вселенная

45.9

47.9

50.7

35.6

29.4

MCP-Марка

38

50.9

43.1

20.4

24.4

Декаслон Инструментов (Pass@1)

35.2

29

36.4

17.6

16


Что это значит для ваших рабочих процессов:

DeepSeek-V3.2 становится высокоэффективной альтернативой в агентных сценариях, значительно сокращая разрыв в производительности между открытыми и передовыми проприетарными моделями при существенно более низких затратах — все это доступно через API SiliconFlow.

Вот пример, созданный с использованием API DeepSeek-V3.2 от SiliconFlow, демонстрирующий, как модель может помогать в написании, оптимизации и размышлениях о коде в реальном времени.


Что делает его мощным

Производительность серии DeepSeek-V3.2 обеспечивается тремя основными техническими прорывами:

  • Слабое внимание DeepSeek (DSA):

Чтобы справиться с проблемой обработки длинных контекстов, модель вводит Слабое внимание DeepSeek (DSA). Этот эффективный механизм внимания значительно снижает вычислительную сложность, не снижая производительности, особенно оптимизирован для сценариев с длинными контекстами.

  • Масштабируемое Обучение с Подкреплением:

DeepSeek-V3.2 использует надежный протокол обучения с подкреплением (RL) в сочетании с масштабируемым пост-тренировочным вычислением. Эта усовершенствованная учебная структура является ключевым драйвером за исключительными возможностями рассуждений модели.

  • Крупномасштабный агентный синтез обучающих задач:

DeepSeek произвел революцию в агентных возможностях с помощью новой Крупномасштабной агентной Пайплайна синтеза задач. Систематически создавая обучающие данные в больших масштабах, модель интегрирует рассуждения непосредственно в сценарии использования инструментов. Это приводит к превосходному соблюдению и генерализации, обеспечивая надежную навигацию ваших агентов в сложных, многошаговых интерактивных средах с точностью.


Интеграция, готовая для разработчиков

Помимо ведущей в индустрии агентной производительности DeepSeek-V3.2, SiliconFlow предлагает мгновенную совместимость с вашей существующей экосистемой разработки:

  • Инструменты, совместимые с OpenAI: Бесшовная интеграция с Cline, Qwen Code, Gen-CLI и другими стандартными средами разработки — просто введите ваш ключ API от SiliconFlow.

  • API, совместимая с Anthropic: Работает с Claude Code и любыми инструментами, совместимыми с Anthropic, для обзоров кода, отладки и рефакторинга архитектуры.

  • Платформенные интеграции: Готова к использованию в Dify, ChatHub, Chatbox, Sider, MindSearch, DB-GPT, а также доступна через OpenRouter.

Благодаря мощным моделям, бесшовной интеграции и конкурентным ценам, SiliconFlow трансформирует способ, который вы создаете — позволяя быстрее выпускать и умнее масштабировать.


Начните немедленно

  1. Изучите: Попробуйте DeepSeek-V3.2 в Playground на SiliconFlow.

  2. Интегрируйте: Используйте наш совместимый с OpenAI API. Ознакомьтесь с полными техническими характеристиками API в документации к API SiliconFlow.

      import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "deepseek-ai/DeepSeek-V3.2",
    "messages": [
        {
            "role": "user",
            "content": "an island near sea, with seagulls, moon shining over the sea, light house, boats int he background, fish flying over the sea"
        }
    ],
    "stream": True,
    "max_tokens": 4096,
    "enable_thinking": False,
    "thinking_budget": 4096,
    "min_p": 0,
    "stop": "1",
    "temperature": 0.7,
    "top_p": 0.7,
    "top_k": 50,
    "frequency_penalty": 0.5,
    "n": 1,
    "response_format": { "type": "json_object" },
    "tools": [
        {
            "type": "function",
            "function": {
                "name": "<string>",
                "description": "<string>",
                "parameters": {},
                "strict": False
            }
        }
    ]
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(response.text)


Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)