關於MiniMax-M1-80k
MiniMax-M1 是一個開放權重,大規模混合注意力推理模型,具有 456 B 個參數和每個 token 激活 45.9 B。它本地支持 1 M-token 上下文,閃電注意力實現了比 DeepSeek R1 在 100 K tokens 下節省 75% FLOPs,並利用 MoE 架構。使用 CISPO 和混合設計的高效 RL 訓練在長輸入推理和真實世界軟體工程任務上達到最先進的性能。
探索 MiniMax-M1-80k 的 1M-token 上下文和高級推理如何在多種領域中應對複雜的真實世界挑戰。
加速科學發現
通過分析龐大的數據集、生成和驗證複雜的證明,以及撰寫具有深入、逐步推理的技術論文來加速研究。
使用案例示例:
"協助基因組學研究員分析50萬行測序數據,以識別新的基因交互作用,減少了數週的分析時間,並建議新的實驗路徑。"
先進的軟體工程
除了除錯之外,MiniMax-M1-80k 還能分析整個代碼庫,識別架構缺陷、建議安全增強措施,利用深刻的算法理解優化性能。
使用案例示例:
"通過推理並行執行路徑,識別出大型 Python 數據處理管道中關鍵的競態條件,提供精確修復,提高數據完整性和吞吐量。"
深入的金融與市場情報
對廣泛的財務報告和市場數據(1M tokens)進行多步定量分析,推斷因果關係,並生成詳細的可行戰略建議。
使用案例示例:
"分析目標公司過去五年的財務報表、市場新聞和監管文件(超過 50 萬 tokens),生成全面的併購盡職調查報告,突出隱藏風險和協同機會。"
全面的系統和合同審核
部署 AI 來審核複雜系統,從法律合同到工程示意圖,通過邏輯依賴性推理、識別不一致性並標記潛在的漏洞或合規問題。
使用案例示例:
"審查多租戶 SaaS 平台的複雜雲基礎設施配置(Terraform 文件、網絡政策、IAM 角色),識別出多個安全錯誤配置和行業標準的合規差距。"
元數據
規格
狀態
Deprecated
架構
hybrid-attention Mixture-of-Experts (MoE)
經過校準的
是
專家並行
是
總參數
456B
啟用的參數
45.9B
推理
否
精度
FP8
上下文長度
131K
最大輸出長度
131K
與其他模型比較
看看這個模型與其他模型的對比如何。

MiniMaxAI
chat
MiniMax-M2.5
發行日期:2026年2月15日
總上下文:
197K
最大輸出:
131K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2.1
發行日期:2025年12月23日
總上下文:
197K
最大輸出:
131K
輸入:
$
0.29
/ M Tokens
輸出:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
發行日期:2025年10月28日
總上下文:
197K
最大輸出:
131K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
發行日期:2025年6月17日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.55
/ M Tokens
輸出:
$
2.2
/ M Tokens
