
Сравнение Model
DeepSeek-V3.1
против
Step-3.5-Flash
15 февр. 2026 г.

Цены
Input
$
0.27
/ M Tokens
$
0.1
/ M Tokens
Output
$
1.0
/ M Tokens
$
0.3
/ M Tokens
Метаданные
Создать на
21 авг. 2025 г.
1 февр. 2026 г.
Лицензия
MIT LICENSE
APACHE 2.0
Поставщик
DeepSeek
StepFun
Спецификация
Государство
Available
Available
Архитектура
Mixture of Experts
Sparse Mixture-of-Experts (MoE) transformer architecture
Калибровка
Да
Нет
Смешение экспертов
Да
Да
Общее количество параметров
671B
196B
Активированные параметры
37B
11B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
164K
262K
Максимум Tokens
164K
66K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
Не поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
DeepSeek-V3.1в сравнении
Смотрите как DeepSeek-V3.1сравнивается с другими популярными моделями по ключевым параметрам.
ВС

MiniMax-M2.5
ВС

GLM-5
ВС

Step-3.5-Flash
ВС

GLM-4.7
ВС

MiniMax-M2.1
ВС

GLM-4.6V
ВС
DeepSeek-V3.2
ВС

DeepSeek-V3.1-Nex-N1
ВС

Kimi-K2-Thinking
ВС

MiniMax-M2
ВС
DeepSeek-V3.2-Exp
ВС

GLM-4.6
ВС
DeepSeek-V3.1-Terminus
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Ring-flash-2.0
ВС

Ling-flash-2.0
ВС

Kimi-K2-Instruct-0905
ВС

GLM-4.5V
ВС
gpt-oss-120b
