MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

Tentang MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

0.2

/

$

1.0

Per 1M Token (Input/Output)

Metadata

Buat di

15 Feb 2026

Lisensi

MODIFIED-MIT

Penyedia

MiniMaxAI

HuggingFace

Spesifikasi

Negara

Available

Arsitektur

Mixture-of-Experts (MoE)

Terkalibrasi

Tidak

Campuran Ahli

Ya

Total Parameter

229B

Parameter yang Diaktifkan

229B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

197K

Max Tokens

131K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

Tidak didukung

JSON Mode

didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow