MiniMax-M2.5
О MiniMax-M2.5
MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1
Доступный Serverless
Запускайте запросы немедленно, платите только за использование
$
0.2
/
$
1.0
За 1 миллион Tokens (Input/Output)
Метаданные
Спецификация
Государство
Available
Архитектура
Mixture-of-Experts (MoE)
Калибровка
Нет
Смешение экспертов
Да
Общее количество параметров
229B
Активированные параметры
229B
Мышление
Нет
Точность
ФП8
Контекст length
197K
Максимум Tokens
131K
поддерживается функциональность
Безсерверный
поддерживается
Безсерверный LoRA
Не поддерживается
Тонкая настройка
Не поддерживается
Embeddings
Не поддерживается
Rerankers
Не поддерживается
Поддержка Image Input
Не поддерживается
Режим JSON
поддерживается
Структурированные Outputs
Не поддерживается
Инструменты
поддерживается
Завершение погашения
Не поддерживается
Chat Префикс Заполнение
поддерживается
Сравнить с другими Model
Посмотрите, как эта Model сравнивается с другими.

MiniMaxAI
chat
MiniMax-M2.5
Выпуск: 15 февр. 2026 г.
Общий Контекст:
197K
Максимальный Output:
131K
Input:
$
0.2
/ M Tokens
Output:
$
1.0
/ M Tokens

MiniMaxAI
chat
MiniMax-M2.1
Выпуск: 23 дек. 2025 г.
Общий Контекст:
197K
Максимальный Output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
Выпуск: 28 окт. 2025 г.
Общий Контекст:
197K
Максимальный Output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
Выпуск: 17 июн. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens
