MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

О MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

Доступный Serverless

Запускайте запросы немедленно, платите только за использование

$

0.2

/

$

1.0

За 1 миллион Tokens (Input/Output)

Метаданные

Создать на

15 февр. 2026 г.

Лицензия

MODIFIED-MIT

Поставщик

MiniMaxAI

HuggingFace

Спецификация

Государство

Available

Архитектура

Mixture-of-Experts (MoE)

Калибровка

Нет

Смешение экспертов

Да

Общее количество параметров

229B

Активированные параметры

229B

Мышление

Нет

Точность

ФП8

Контекст length

197K

Максимум Tokens

131K

поддерживается функциональность

Безсерверный

поддерживается

Безсерверный LoRA

Не поддерживается

Тонкая настройка

Не поддерживается

Embeddings

Не поддерживается

Rerankers

Не поддерживается

Поддержка Image Input

Не поддерживается

Режим JSON

поддерживается

Структурированные Outputs

Не поддерживается

Инструменты

поддерживается

Завершение погашения

Не поддерживается

Chat Префикс Заполнение

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)