
モデル比較
DeepSeek-V3.2
対
MiniMax-M2.1
2026/02/15

価格
Input
$
0.27
/ M Tokens
$
0.29
/ M Tokens
Output
$
0.42
/ M Tokens
$
1.2
/ M Tokens
メタデータ
作成する
2025/12/01
2025/12/20
ライセンス
MIT LICENSE
MODIFIED-MIT
プロバイダー
DeepSeek
MiniMaxAI
仕様
州
Available
Available
建築
DeepSeek Sparse Attention (DSA), Scalable Reinforcement Learning Framework, Large-Scale Agentic Task Synthesis Pipeline
null
キャリブレートされた
いいえ
いいえ
専門家の混合
いいえ
いいえ
合計パラメータ
671B
230B
アクティブ化されたパラメータ
671B
230B
推論
いいえ
いいえ
Precision
FP8
FP8
コンテキスト長
164K
197K
Max Tokens
164K
131K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
サポートされていません
Fine-tuning
サポートされていません
サポートされていません
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
対応
対応
構造化されたOutputs
サポートされていません
サポートされていません
ツール
対応
対応
Fim Completion
サポートされていません
サポートされていません
Chat Prefix Completion
対応
対応
DeepSeek-V3.2比較において
見てくださいDeepSeek-V3.2主要な次元において他の人気のあるモデルと比較します。
VS

MiniMax-M2.5
VS

GLM-5
VS

Step-3.5-Flash
VS

GLM-4.7
VS

GLM-4.7
VS

MiniMax-M2.1
VS

GLM-4.6V
VS

Kimi-K2-Thinking
VS

MiniMax-M2
VS
DeepSeek-V3.2-Exp
VS

GLM-4.6
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Ring-flash-2.0
VS

Ling-flash-2.0
VS

Kimi-K2-Instruct-0905
VS

GLM-4.5V
VS
gpt-oss-120b
VS

step3
VS

Qwen3-235B-A22B-Thinking-2507
