關於MiniMax-M2.5
MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.2
/
$
1.0
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
Mixture-of-Experts (MoE)
經過校準的
否
專家並行
是
總參數
229B
啟用的參數
229B
推理
否
精度
FP8
上下文長度
197K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
支持
與其他模型比較
看看這個模型與其他模型的對比如何。

MiniMaxAI
chat
MiniMax-M2.5
發行日期:2026年2月15日
總上下文:
197K
最大輸出:
131K
輸入:
$
0.2
/ M Tokens
輸出:
$
1.0
/ M Tokens

MiniMaxAI
chat
MiniMax-M2.1
發行日期:2025年12月23日
總上下文:
197K
最大輸出:
131K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
發行日期:2025年10月28日
總上下文:
197K
最大輸出:
131K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
發行日期:2025年6月17日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.55
/ M Tokens
輸出:
$
2.2
/ M Tokens
