MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

關於MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

可用的無伺服器

立即運行查詢,僅按使用量付費

$

0.2

$

1.0

每百萬 Tokens(輸入/輸出)

元數據

創建於

2026年2月15日

許可證

MODIFIED-MIT

供應商

MiniMaxAI

HuggingFace

規格

狀態

Available

架構

Mixture-of-Experts (MoE)

經過校準的

專家並行

總參數

229B

啟用的參數

229B

推理

精度

FP8

上下文長度

197K

最大輸出長度

131K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow