MiniMax-M2

О MiniMax-M2

MiniMax-M2 переопределяет эффективность для агентов. Это компактная, быстрая и экономически эффективная модель MoE (230 миллиардов общих параметров с 10 миллиардами активных параметров), созданная для элитной производительности в кодировании и агентских задачах, при этом сохраняя мощный общий интеллект. Используя всего 10 миллиардов активированных параметров, MiniMax-M2 обеспечивает сложную, сквозную производительность инструментов, которую ожидают от ведущих моделей сегодня, но в упрощенной форме, что делает развертывание и масштабирование проще, чем когда-либо.

Доступный Serverless

Запускайте запросы немедленно, платите только за использование

$

0.3

/

$

1.2

За 1 миллион Tokens (Input/Output)

Метаданные

Создать на

28 окт. 2025 г.

Лицензия

MIT

Поставщик

MiniMaxAI

HuggingFace

Спецификация

Государство

Available

Архитектура

Калибровка

Нет

Смешение экспертов

Да

Общее количество параметров

230B

Активированные параметры

10B

Мышление

Нет

Точность

ФП8

Контекст length

197K

Максимум Tokens

131K

поддерживается функциональность

Безсерверный

поддерживается

Безсерверный LoRA

Не поддерживается

Тонкая настройка

Не поддерживается

Embeddings

Не поддерживается

Rerankers

Не поддерживается

Поддержка Image Input

Не поддерживается

Режим JSON

поддерживается

Структурированные Outputs

Не поддерживается

Инструменты

поддерживается

Завершение погашения

Не поддерживается

Chat Префикс Заполнение

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)