
Сравнение Model
DeepSeek-R1-Distill-Qwen-32B
против
GLM-4.1V-9B-Thinking
10 февр. 2026 г.

Цены
Input
$
0.18
/ M Tokens
$
0.035
/ M Tokens
Output
$
0.18
/ M Tokens
$
0.14
/ M Tokens
Метаданные
Создать на
20 янв. 2025 г.
28 июн. 2025 г.
Лицензия
MIT LICENSE
MIT
Поставщик
DeepSeek
Z.ai
Спецификация
Государство
Available
Deprecated
Архитектура
Transformer
Vision-Language Model (VLM) based on GLM-4-9B-0414 with thinking paradigm
Калибровка
Нет
Нет
Смешение экспертов
Нет
Нет
Общее количество параметров
32B
9B
Активированные параметры
32B
9B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
131K
66K
Максимум Tokens
131K
66K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
Не поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
Не поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
Не поддерживается
Не поддерживается
DeepSeek-R1-Distill-Qwen-32Bв сравнении
Смотрите как DeepSeek-R1-Distill-Qwen-32Bсравнивается с другими популярными моделями по ключевым параметрам.
ВС

GLM-4.6V
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-8B-Instruct
ВС

Qwen3-VL-8B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Ring-flash-2.0
ВС

Ling-flash-2.0
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС

Ling-mini-2.0
ВС

Hunyuan-MT-7B
ВС
gpt-oss-120b
ВС
gpt-oss-20b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
