Сравнение Model

DeepSeek-R1-Distill-Qwen-14B

против

Qwen2.5-VL-7B-Instruct

10 февр. 2026 г.

Цены

Input

$

0.1

/ M Tokens

$

0.05

/ M Tokens

Output

$

0.1

/ M Tokens

$

0.05

/ M Tokens

Метаданные

Создать на

20 янв. 2025 г.

26 янв. 2025 г.

Лицензия

MIT LICENSE

APACHE-2.0

Поставщик

DeepSeek

Qwen

Спецификация

Государство

Available

Available

Архитектура

Dense

Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.

Калибровка

Нет

Нет

Смешение экспертов

Нет

Нет

Общее количество параметров

14B

7B

Активированные параметры

14B

7B

Мышление

Нет

Нет

Точность

FP8

FP8

Длина контекста

131K

33K

Максимум Tokens

131K

4K

поддерживается функциональность

Безсерверный

поддерживается

поддерживается

Безсерверный LoRA

Не поддерживается

Не поддерживается

Тонкая настройка

Не поддерживается

Не поддерживается

Embeddings

Не поддерживается

Не поддерживается

Rerankers

Не поддерживается

Не поддерживается

Поддержка Image Input

Не поддерживается

Не поддерживается

Режим JSON

поддерживается

Не поддерживается

Структурированные Outputs

Не поддерживается

Не поддерживается

Инструменты

поддерживается

Не поддерживается

Завершение погашения

поддерживается

Не поддерживается

Chat Префикс Заполнение

Не поддерживается

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)