

Сравнение Model
Qwen2.5-VL-7B-Instruct
против
Qwen3-VL-8B-Thinking
28 февр. 2026 г.

Цены
Input
$
0.05
/ M Tokens
$
0.18
/ M Tokens
Output
$
0.05
/ M Tokens
$
2.0
/ M Tokens
Метаданные
Создать на
26 янв. 2025 г.
11 окт. 2025 г.
Лицензия
APACHE-2.0
APACHE-2.0
Поставщик
Qwen
Qwen
Спецификация
Государство
Available
Available
Архитектура
Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.
Qwen3-VL
Калибровка
Нет
Нет
Смешение экспертов
Нет
Нет
Общее количество параметров
7B
8B
Активированные параметры
7B
8B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
33K
262K
Максимум Tokens
4K
262K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
Не поддерживается
поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
Не поддерживается
поддерживается
Завершение погашения
Не поддерживается
Не поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
Qwen2.5-VL-7B-Instructв сравнении
Смотрите как Qwen2.5-VL-7B-Instructсравнивается с другими популярными моделями по ключевым параметрам.
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-8B-Instruct
ВС

Qwen3-VL-8B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС
gpt-oss-20b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
ВС

Qwen3-30B-A3B-Instruct-2507
ВС

Qwen3-14B
ВС

Qwen3-30B-A3B
ВС

Qwen3-32B
ВС

Qwen3-8B
ВС
deepseek-vl2
