
Сравнение Model
DeepSeek-R1-Distill-Qwen-7B
против
Meta-Llama-3.1-8B-Instruct
10 февр. 2026 г.

Цены
Input
$
0.05
/ M Tokens
$
0.06
/ M Tokens
Output
$
0.05
/ M Tokens
$
0.06
/ M Tokens
Метаданные
Создать на
20 янв. 2025 г.
Лицензия
MIT LICENSE
LLAMA 3.1 COMMUNITY
Поставщик
DeepSeek
Meta Llama
Спецификация
Государство
Deprecated
Deprecated
Архитектура
Dense Transformer
Transformer Decoder
Калибровка
Нет
Да
Смешение экспертов
Нет
Нет
Общее количество параметров
7B
8B
Активированные параметры
7B
8B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
33K
33K
Максимум Tokens
16K
4K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
Не поддерживается
Завершение погашения
поддерживается
Не поддерживается
Chat Префикс Заполнение
Не поддерживается
поддерживается
DeepSeek-R1-Distill-Qwen-7Bв сравнении
Смотрите как DeepSeek-R1-Distill-Qwen-7Bсравнивается с другими популярными моделями по ключевым параметрам.
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-8B-Instruct
ВС

Qwen3-VL-8B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Ling-mini-2.0
ВС

Hunyuan-MT-7B
ВС
gpt-oss-20b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
ВС

Qwen3-30B-A3B-Instruct-2507
ВС

GLM-4.1V-9B-Thinking
ВС

Qwen3-14B
ВС

Qwen3-30B-A3B
ВС

Qwen3-32B
ВС

Qwen3-8B
