
Сравнение Model
против
step3
28 февр. 2026 г.

Цены
Input
0.57
Output
1.42
Метаданные
Спецификация
Государство
Deprecated
Архитектура
Mixture-of-Experts (MoE) architecture with Multi-Matrix Factorization Attention (MFA) and Attention-FFN Disaggregation (AFD)
Калибровка
Да
Нет
Смешение экспертов
Да
Да
Общее количество параметров
321B
Активированные параметры
38B
Мышление
Да
Нет
Точность
FP8
Длина контекста
66K
Максимум Tokens
66K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
поддерживается
Не поддерживается
Тонкая настройка
поддерживается
Не поддерживается
Embeddings
поддерживается
поддерживается
Rerankers
поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
поддерживается
Структурированные Outputs
поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
Не поддерживается
в сравнении
Смотрите как сравнивается с другими популярными моделями по ключевым параметрам.
ВС

Step-3.5-Flash
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Ring-flash-2.0
ВС

Ring-flash-2.0
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС
gpt-oss-120b
ВС
gpt-oss-120b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
