MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

約MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

$

0.2

$

1.0

100万トークン(Input/Output)ごとに

メタデータ

作成する

2026/02/15

ライセンス

MODIFIED-MIT

プロバイダー

MiniMaxAI

ハギングフェイス

仕様

Available

建築

Mixture-of-Experts (MoE)

キャリブレートされた

いいえ

専門家の混合

はい

合計パラメータ

229B

アクティブ化されたパラメータ

229B

推論

いいえ

Precision

FP8

コンテキスト長

197K

Max Tokens

131K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow