目錄
MiniMax-M1-80k(456B),全球首個開源混合注意力模型,現已在SiliconFlow上提供。
支持128K上下文
價格具有競爭力:$0.58/M 令牌(輸入),$2.29/M 令牌(輸出)
以尖端的專家混合(MoE)架構和閃電注意力構建,MiniMax-M1-80k在長上下文推理、編程任務和多步驟工具使用中達到最先進的性能。
混合注意力 + MoE 架構 M1 將專家混合路由的效率與閃電注意力的深度結合,讓其在擴展的同時保持長序列推理質量。
最佳化用於代理和工具 支持擴展上下文和強大的推理能力,M1非常適合於自主代理、文檔分析和沙盒軟件開發等應用。
數學、編碼和推理 基準測試顯示,M1在需要符號推理、結構化輸出和複雜指令遵循的任務中表現競爭。
快速開始
在SiliconFlow平台上試用MiniMax-M1-80k模型。
快速訪問API
以下Python示例演示如何通過SiliconFlow的API端點調用MiniMax-M1-80k模型。提供更詳細的API規格供開發者使用。
MiniMax-M1-80k提供了獨特的規模、效率和推理能力的平衡,旨在為開發者推動生成AI的極限。不論您是在構建長上下文助手、智能代理還是高級代碼助手—M1隨時準備就緒。
現在使用MiniMax-M1-80k在SiliconFlow上創造一些非凡的事物。

