MiniMax-M2.5

MiniMax-M2.5

MiniMaxAI/MiniMax-M2.5

정보에 대해서MiniMax-M2.5

MiniMax-M2.5 is MiniMax's latest large language model, extensively trained with reinforcement learning across hundreds of thousands of complex real-world environments. Built on a 229B-parameter MoE architecture, it achieves SOTA performance in coding, agentic tool use, search, and office work, scoring 80.2% on SWE-Bench Verified with 37% faster inference than M2.1

사용 가능한 Serverless

쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.

$

0.2

/

$

1.0

1M 토큰당 (Input/Output)

메타데이터

생성하다

2026. 2. 15.

라이센스

MODIFIED-MIT

공급자

MiniMaxAI

허깅페이스

사양

Available

건축

Mixture-of-Experts (MoE)

교정된

아니요

전문가의 혼합

총 매개변수

229B

활성화된 매개변수

229B

추론

아니요

Precision

FP8

콘텍스트 길이

197K

Max Tokens

131K

지원됨 기능

Serverless

지원됨

Serverless LoRA

지원하지 않음

Fine-tuning

지원하지 않음

Embedding

지원하지 않음

Rerankers

지원하지 않음

지원 Image Input

지원하지 않음

JSON Mode

지원됨

구조화된 Outputs

지원하지 않음

도구

지원됨

Fim Completion

지원하지 않음

Chat Prefix Completion

지원됨

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow