
Сравнение Model
против
Ring-flash-2.0
15 февр. 2026 г.

Цены
Input
0.14
Output
0.57
Метаданные
Спецификация
Государство
Available
Архитектура
Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design
Калибровка
Да
Да
Смешение экспертов
Да
Да
Общее количество параметров
100B
Активированные параметры
6.1B
Мышление
Да
Нет
Точность
FP8
Длина контекста
131K
Максимум Tokens
131K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
поддерживается
Не поддерживается
Тонкая настройка
поддерживается
Не поддерживается
Embeddings
поддерживается
поддерживается
Rerankers
поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
Не поддерживается
Структурированные Outputs
поддерживается
Не поддерживается
Инструменты
поддерживается
Не поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
в сравнении
Смотрите как сравнивается с другими популярными моделями по ключевым параметрам.
ВС

Step-3.5-Flash
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Ring-flash-2.0
ВС

Ring-flash-2.0
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС
gpt-oss-120b
ВС
gpt-oss-120b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
