
モデル比較
DeepSeek-R1-Distill-Qwen-7B
対
Ling-mini-2.0
2026/02/10

価格
Input
$
0.05
/ M Tokens
$
0.07
/ M Tokens
Output
$
0.05
/ M Tokens
$
0.28
/ M Tokens
メタデータ
作成する
2025/01/20
2025/09/08
ライセンス
MIT LICENSE
MIT
プロバイダー
DeepSeek
inclusionAI
仕様
州
Deprecated
Available
建築
Qwen2.5
MoE
キャリブレートされた
いいえ
はい
専門家の混合
いいえ
はい
合計パラメータ
7B
16B
アクティブ化されたパラメータ
7B
1.4B
推論
いいえ
いいえ
Precision
FP8
FP8
コンテキスト長
33K
131K
Max Tokens
16K
131K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
サポートされていません
Fine-tuning
サポートされていません
サポートされていません
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
対応
対応
構造化されたOutputs
サポートされていません
サポートされていません
ツール
対応
対応
Fim Completion
対応
サポートされていません
Chat Prefix Completion
サポートされていません
対応
DeepSeek-R1-Distill-Qwen-7B比較において
見てくださいDeepSeek-R1-Distill-Qwen-7B主要な次元において他の人気のあるモデルと比較します。
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-8B-Instruct
VS

Qwen3-VL-8B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Ling-mini-2.0
VS

Hunyuan-MT-7B
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
VS

Qwen3-30B-A3B-Instruct-2507
VS

GLM-4.1V-9B-Thinking
VS

Qwen3-14B
VS

Qwen3-30B-A3B
VS

Qwen3-32B
VS

Qwen3-8B
