約DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Qwen-7Bは、Qwen2.5-Math-7Bに基づいた蒸留モデルです。このモデルは、DeepSeek-R1によって生成された80万の精選されたサンプルを使用してファインチューニングされ、強力な推論能力を示しています。MATH-500では92.8%の正確性、AIME 2024では55.5%の合格率、CodeForcesでは1189の評価を達成し、7Bスケールモデルとして卓越した数学的およびプログラミングの能力を示しています。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.05
/
$
0.05
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
いいえ
専門家の混合
いいえ
合計パラメータ
7B
アクティブ化されたパラメータ
7B
推論
いいえ
Precision
FP8
コンテキスト長
33K
Max Tokens
16K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
対応
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
対応
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。
DeepSeek
chat
DeepSeek-V3.2
リリース日:2025/12/04
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
chat
DeepSeek-V3.2-Exp
リリース日:2025/10/10
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1-Terminus
リリース日:2025/09/29
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1
リリース日:2025/08/25
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3
リリース日:2024/12/26
Total Context:
164K
Max output:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-R1
リリース日:2025/05/28
Total Context:
164K
Max output:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-32B
リリース日:2025/01/20
Total Context:
131K
Max output:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-14B
リリース日:2025/01/20
Total Context:
131K
Max output:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-7B
リリース日:2025/01/20
Total Context:
33K
Max output:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens
