MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

約MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

100万トークン(Input/Output)ごとに

$

0.3

/ M Tokens

100万トークン(Input/Output)ごとに

$

0.03

/ M Tokens

100万トークン(Input/Output)ごとに

$

1.2

/ M Tokens

メタデータ

作成する

ライセンス

MODIFIED-MIT

プロバイダー

MiniMaxAI

ハギングフェイス

仕様

Available

建築

MoE

キャリブレートされた

いいえ

専門家の混合

はい

合計パラメータ

229B

アクティブ化されたパラメータ

推論

いいえ

Precision

FP8

コンテキスト長

197K

Max Tokens

131K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?