MiniMax-M2.5
Tentang MiniMax-M2.5
MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1
Tersedia Serverless
Jalankan kueri segera, bayar hanya untuk penggunaan
$
0.2
/
$
1.0
Per 1M Token (Input/Output)
Metadata
Spesifikasi
Negara
Available
Arsitektur
Mixture-of-Experts (MoE)
Terkalibrasi
Tidak
Campuran Ahli
Ya
Total Parameter
229B
Parameter yang Diaktifkan
229B
Penalaran
Tidak
Precision
FP8
Text panjang konteks
197K
Max Tokens
131K
Didukung Keberfungsian
Serverless
didukung
Serverless LoRA
Tidak didukung
Fine-tuning
Tidak didukung
Embeddings
Tidak didukung
Rerankers
Tidak didukung
Dukung Image Input
Tidak didukung
JSON Mode
didukung
Output Terstruktur
Tidak didukung
Alat
didukung
Fim Completion
Tidak didukung
Chat Prefix Completion
didukung
Bandingkan dengan Model Lain
Lihat bagaimana model ini dibandingkan dengan yang lain.

MiniMaxAI
chat
MiniMax-M2.5
Dirilis pada: 15 Feb 2026
Total Context:
197K
Max output:
131K
Input:
$
0.2
/ M Tokens
Output:
$
1.0
/ M Tokens

MiniMaxAI
chat
MiniMax-M2.1
Dirilis pada: 23 Des 2025
Total Context:
197K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
Dirilis pada: 28 Okt 2025
Total Context:
197K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
Dirilis pada: 17 Jun 2025
Total Context:
131K
Max output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens
