約MiniMax-M1-80k
MiniMax-M1は、456 Bパラメータとトークンあたり45.9 Bがアクティブなオープンウェイトの大規模ハイブリッドアテンション推論モデルです。これはネイティブに1 M-tokenコンテキストをサポートし、ライトニングアテンションによりDeepSeek R1で100 K tokenの際に75%のFLOPsを節約し、MoEアーキテクチャを活用しています。CISPOとハイブリッド設計による効率的なRLトレーニングにより、長いInput推論および現実世界のソフトウェアエンジニアリングタスクで最先端のパフォーマンスを実現します。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.55
/
$
2.2
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
はい
専門家の混合
はい
合計パラメータ
456B
アクティブ化されたパラメータ
45.9B
推論
いいえ
Precision
FP8
コンテキスト長
131K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
サポートされていません
構造化されたOutputs
サポートされていません
ツール
サポートされていません
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

MiniMaxAI
chat
MiniMax-M2.1
リリース日:2025/12/23
Total Context:
197K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
リリース日:2025/10/28
Total Context:
197K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
リリース日:2025/06/17
Total Context:
131K
Max output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens
