정보에 대해서MiniMax-M1-80k
MiniMax-M1은 456 B 매개변수와 토큰당 45.9 B 활성화를 가진 오픈 웨이트, 대규모 하이브리드 주의 추론 모델입니다. 본래 1 M-token 콘텍스트를 지원하며, 번개 같은 주의로 100 K tokens에서 DeepSeek R1 대비 75%의 FLOPs 절약을 가능하게 하고, MoE 아키텍처를 활용합니다. CISPO와의 효율적인 RL 훈련과 하이브리드 설계를 통해 긴 Input 추론과 실제 소프트웨어 엔지니어링 작업에서 최첨단 성능을 발휘합니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.55
/
$
2.2
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
네
전문가의 혼합
네
총 매개변수
456B
활성화된 매개변수
45.9B
추론
아니요
Precision
FP8
콘텍스트 길이
131K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원하지 않음
구조화된 Outputs
지원하지 않음
도구
지원하지 않음
Fim Completion
지원하지 않음
Chat Prefix Completion
지원하지 않음
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

MiniMaxAI
chat
MiniMax-M2.1
출시일: 2025. 12. 23.
Total Context:
197K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M2
출시일: 2025. 10. 28.
Total Context:
197K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

MiniMaxAI
chat
MiniMax-M1-80k
출시일: 2025. 6. 17.
Total Context:
131K
Max output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens
