MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

О MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

Доступный Serverless

Запускайте запросы немедленно, платите только за использование

За 1 миллион Tokens (Input/Output)

$

0.3

/ M Tokens

За 1 миллион Tokens (Input/Output)

$

0.03

/ M Tokens

За 1 миллион Tokens (Input/Output)

$

1.2

/ M Tokens

Метаданные

Создать на

Лицензия

MODIFIED-MIT

Поставщик

MiniMaxAI

HuggingFace

Спецификация

Государство

Available

Архитектура

MoE

Калибровка

Нет

Смешение экспертов

Да

Общее количество параметров

229B

Активированные параметры

Мышление

Нет

Точность

ФП8

Контекст length

197K

Максимум Tokens

131K

поддерживается функциональность

Безсерверный

поддерживается

Безсерверный LoRA

Не поддерживается

Тонкая настройка

Не поддерживается

Embeddings

Не поддерживается

Rerankers

Не поддерживается

Поддержка Image Input

Не поддерживается

Режим JSON

поддерживается

Структурированные Outputs

Не поддерживается

Инструменты

поддерживается

Завершение погашения

Не поддерживается

Chat Префикс Заполнение

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?