約DeepSeek-R1-Distill-Qwen-14B
DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bをベースにした蒸留されたModelです。このModelは、DeepSeek-R1によって生成された800kの精選されたサンプルを使用してファインチューニングされ、優れた推論能力を示しています。MATH-500で93.9%の精度、AIME 2024で69.7%の合格率、CodeForcesでは1481の評価を達成し、数学およびプログラミングタスクにおけるその卓越した能力を示しています。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.1
/
$
0.1
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
いいえ
専門家の混合
いいえ
合計パラメータ
14B
アクティブ化されたパラメータ
14B
推論
いいえ
Precision
FP8
コンテキスト長
131K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
対応
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
対応
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。
DeepSeek
chat
DeepSeek-V3.2
リリース日:2025/12/04
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
chat
DeepSeek-V3.2-Exp
リリース日:2025/10/10
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1-Terminus
リリース日:2025/09/29
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1
リリース日:2025/08/25
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3
リリース日:2024/12/26
Total Context:
164K
Max output:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-R1
リリース日:2025/05/28
Total Context:
164K
Max output:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-32B
リリース日:2025/01/20
Total Context:
131K
Max output:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-14B
リリース日:2025/01/20
Total Context:
131K
Max output:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-7B
リリース日:2025/01/20
Total Context:
33K
Max output:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens
