約MiniMax-M2.5
MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.2
/
$
1.0
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
Mixture-of-Experts (MoE)
キャリブレートされた
いいえ
専門家の混合
はい
合計パラメータ
229B
アクティブ化されたパラメータ
229B
推論
いいえ
Precision
FP8
コンテキスト長
197K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
対応
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
対応
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

MiniMaxAI
chat
MiniMax-M2.5
リリース日:2026/02/15
Total Context:
197K
Max output:
131K
Input:
$
0.2
/ M Tokens
Output:
$
1.0
/ M Tokens

MiniMaxAI
chat
MiniMax-M2.1
リリース日:2025/12/23
Total Context:
197K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
リリース日:2025/10/28
Total Context:
197K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
リリース日:2025/06/17
Total Context:
131K
Max output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens
