

Сравнение Model
GLM-4.6V
против
step3
28 февр. 2026 г.

Цены
Input
$
0.3
/ M Tokens
$
0.57
/ M Tokens
Output
$
0.9
/ M Tokens
$
1.42
/ M Tokens
Метаданные
Спецификация
Государство
Available
Deprecated
Архитектура
Multimodal with Function Calling, Mixture of Experts (MoE)
Mixture-of-Experts (MoE) architecture with Multi-Matrix Factorization Attention (MFA) and Attention-FFN Disaggregation (AFD)
Калибровка
Да
Нет
Смешение экспертов
Да
Да
Общее количество параметров
106B
321B
Активированные параметры
106B
38B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
131K
66K
Максимум Tokens
131K
66K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
Не поддерживается
поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
Не поддерживается
Не поддерживается
Chat Префикс Заполнение
Не поддерживается
Не поддерживается
GLM-4.6Vв сравнении
Смотрите как GLM-4.6Vсравнивается с другими популярными моделями по ключевым параметрам.
ВС

MiniMax-M2.5
ВС

GLM-5
ВС

Step-3.5-Flash
ВС

GLM-4.7
ВС

MiniMax-M2.1
ВС

MiniMax-M2
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Ring-flash-2.0
ВС

Ling-flash-2.0
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС
gpt-oss-120b
