
Сравнение Model
DeepSeek-V3.2-Exp
против
Ling-flash-2.0
15 февр. 2026 г.

Цены
Input
$
0.27
/ M Tokens
$
0.14
/ M Tokens
Output
$
0.41
/ M Tokens
$
0.57
/ M Tokens
Метаданные
Создать на
29 сент. 2025 г.
17 сент. 2025 г.
Лицензия
MIT LICENSE
MIT LICENSE
Поставщик
DeepSeek
inclusionAI
Спецификация
Государство
Available
Available
Архитектура
Transformer with Sparse Attention
Ling 2.0 MoE architecture
Калибровка
Нет
Нет
Смешение экспертов
Нет
Да
Общее количество параметров
671B
100B
Активированные параметры
6.1B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
164K
131K
Максимум Tokens
164K
131K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
Не поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
DeepSeek-V3.2-Expв сравнении
Смотрите как DeepSeek-V3.2-Expсравнивается с другими популярными моделями по ключевым параметрам.
ВС

MiniMax-M2.5
ВС

GLM-5
ВС

Step-3.5-Flash
ВС

GLM-4.7
ВС

MiniMax-M2.1
ВС

GLM-4.6V
ВС

Kimi-K2-Thinking
ВС

MiniMax-M2
ВС

GLM-4.6
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Ring-flash-2.0
ВС

Ling-flash-2.0
ВС

Kimi-K2-Instruct-0905
ВС

GLM-4.5V
ВС
gpt-oss-120b
ВС

step3
ВС

Qwen3-235B-A22B-Thinking-2507
ВС

Qwen3-Coder-480B-A35B-Instruct
ВС

Qwen3-235B-A22B-Instruct-2507
