
Сравнение Model
DeepSeek-R1
против
GLM-4.5V
15 февр. 2026 г.

Цены
Input
$
0.5
/ M Tokens
$
0.14
/ M Tokens
Output
$
2.18
/ M Tokens
$
0.86
/ M Tokens
Метаданные
Создать на
20 янв. 2025 г.
10 авг. 2025 г.
Лицензия
MIT
MIT
Поставщик
DeepSeek
Z.ai
Спецификация
Государство
Available
Available
Архитектура
MoE
GLM-V family, based on GLM-4.5-Air, incorporates Chain-of-Thought reasoning, RLCS (Reinforcement Learning with Curriculum Sampling), and a Thinking Mode switch, with Mixture of Experts (MoE)
Калибровка
Нет
Да
Смешение экспертов
Да
Да
Общее количество параметров
671B
106B
Активированные параметры
37B
12B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
164K
66K
Максимум Tokens
164K
66K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
Не поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
Не поддерживается
DeepSeek-R1в сравнении
Смотрите как DeepSeek-R1сравнивается с другими популярными моделями по ключевым параметрам.
ВС

MiniMax-M2.5
ВС

GLM-5
ВС

Step-3.5-Flash
ВС

GLM-4.7
ВС

MiniMax-M2.1
ВС

GLM-4.6V
ВС
DeepSeek-V3.2
ВС

DeepSeek-V3.1-Nex-N1
ВС

Kimi-K2-Thinking
ВС

MiniMax-M2
ВС
DeepSeek-V3.2-Exp
ВС

GLM-4.6
ВС
DeepSeek-V3.1-Terminus
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Ring-flash-2.0
ВС

Ling-flash-2.0
ВС

Kimi-K2-Instruct-0905
ВС
DeepSeek-V3.1
ВС

GLM-4.5V
