DeepSeek-R1-Distill-Qwen-1.5B
О DeepSeek-R1-Distill-Qwen-1.5B
DeepSeek-R1-Distill-Qwen-1.5B — это дистиллированная Model, основанная на Qwen2.5-Math-1.5B. Эта Model была дообучена с использованием 800 тыс. отобранных образцов, сгенерированных DeepSeek-R1, и демонстрирует достойные результаты на различных бенчмарках. Как легковесная Model, она достигла точности 83,9% на MATH-500, 28,9% проходного балла на AIME 2024 и рейтинга 954 на CodeForces, демонстрируя возможности рассуждения, выходящие за пределы её параметров.
Explore how DeepSeek-V3's advanced reasoning and coding capabilities translate into real-world applications.
Automated Code Generation & Debugging
Generate, optimize, and debug complex code snippets across various programming languages. The model's strong reasoning helps identify logical errors and suggest efficient solutions.
Use Case Example:
"A software engineer used DeepSeek-V3 to refactor a legacy Python module, resulting in a 40% reduction in code complexity and a 25% improvement in execution speed."
Scientific & Mathematical Research
Assist researchers by solving complex mathematical problems, formulating hypotheses, and analyzing data. Its ability to reason through abstract concepts makes it a powerful tool for scientific discovery.
Use Case Example:
"A physicist modeled a complex quantum mechanics problem, and the model provided a step-by-step derivation that led to a novel insight, which was later verified experimentally."
Intelligent Agent & Tool Integration
Build sophisticated AI agents that can understand user requests, select the appropriate tools (e.g., APIs, databases), and execute multi-step tasks autonomously.
Use Case Example:
"An automated travel assistant powered by DeepSeek-V3 booked a complete itinerary by interacting with flight, hotel, and car rental APIs based on a single natural language request from the user."
Advanced Conversational AI
Create highly engaging and context-aware chatbots, virtual assistants, or role-playing characters for gaming and entertainment. The model excels at maintaining coherent and natural-sounding dialogue.
Use Case Example:
"A gaming company implemented an NPC (Non-Player Character) using the model, which provided dynamic, unscripted interactions that significantly enhanced player immersion."
Метаданные
Спецификация
Государство
Deprecated
Архитектура
Калибровка
Нет
Смешение экспертов
Нет
Общее количество параметров
2B
Активированные параметры
Мышление
Нет
Точность
ФП8
Контекст length
33K
Максимум Tokens
Сравнить с другими Model
Посмотрите, как эта Model сравнивается с другими.
DeepSeek
chat
DeepSeek-V3.2
Выпуск: 4 дек. 2025 г.
Общий Контекст:
164K
Максимальный Output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
chat
DeepSeek-V3.2-Exp
Выпуск: 10 окт. 2025 г.
Общий Контекст:
164K
Максимальный Output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1-Terminus
Выпуск: 29 сент. 2025 г.
Общий Контекст:
164K
Максимальный Output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3.1
Выпуск: 25 авг. 2025 г.
Общий Контекст:
164K
Максимальный Output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-V3
Выпуск: 26 дек. 2024 г.
Общий Контекст:
164K
Максимальный Output:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
chat
DeepSeek-R1
Выпуск: 28 мая 2025 г.
Общий Контекст:
164K
Максимальный Output:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-32B
Выпуск: 20 янв. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-14B
Выпуск: 20 янв. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
chat
DeepSeek-R1-Distill-Qwen-7B
Выпуск: 20 янв. 2025 г.
Общий Контекст:
33K
Максимальный Output:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens
