

Сравнение Model
MiniMax-M2
против
Ring-flash-2.0
28 февр. 2026 г.

Цены
Input
$
0.3
/ M Tokens
$
0.14
/ M Tokens
Output
$
1.2
/ M Tokens
$
0.57
/ M Tokens
Метаданные
Создать на
22 окт. 2025 г.
19 сент. 2025 г.
Лицензия
MIT
MIT LICENSE
Поставщик
MiniMaxAI
inclusionAI
Спецификация
Государство
Deprecated
Available
Архитектура
Mixture of Experts
Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design
Калибровка
Нет
Да
Смешение экспертов
Да
Да
Общее количество параметров
230B
100B
Активированные параметры
10B
6.1B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
197K
131K
Максимум Tokens
131K
131K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
Не поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
Не поддерживается
Завершение погашения
Не поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
MiniMax-M2в сравнении
Смотрите как MiniMax-M2сравнивается с другими популярными моделями по ключевым параметрам.
ВС

MiniMax-M2.5
ВС

Step-3.5-Flash
ВС

MiniMax-M2.1
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Ring-flash-2.0
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС
gpt-oss-120b
ВС

step3
ВС

Qwen3-235B-A22B-Thinking-2507
ВС

Qwen3-Coder-480B-A35B-Instruct
ВС

Qwen3-235B-A22B-Instruct-2507
ВС

Qwen2.5-VL-72B-Instruct
ВС

Qwen2.5-72B-Instruct
ВС

Qwen2.5-72B-Instruct-128K
ВС
ВС
