
Сравнение Model
против
Step-3.5-Flash
15 февр. 2026 г.

Цены
Input
0.1
Output
0.3
Метаданные
Спецификация
Государство
Available
Архитектура
Sparse Mixture-of-Experts (MoE) transformer architecture
Калибровка
Да
Нет
Смешение экспертов
Да
Да
Общее количество параметров
196B
Активированные параметры
11B
Мышление
Да
Нет
Точность
FP8
Длина контекста
262K
Максимум Tokens
66K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
поддерживается
Не поддерживается
Тонкая настройка
поддерживается
Не поддерживается
Embeddings
поддерживается
поддерживается
Rerankers
поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
Не поддерживается
Структурированные Outputs
поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
в сравнении
Смотрите как сравнивается с другими популярными моделями по ключевым параметрам.
ВС

Step-3.5-Flash
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Ring-flash-2.0
ВС

Ring-flash-2.0
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС
gpt-oss-120b
ВС
gpt-oss-120b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
