Сравнение Model

Qwen2.5-14B-Instruct

против

Qwen2.5-VL-32B-Instruct

28 февр. 2026 г.

Цены

Input

$

0.1

/ M Tokens

$

0.27

/ M Tokens

Output

$

0.1

/ M Tokens

$

0.27

/ M Tokens

Метаданные

Создать на

16 сент. 2024 г.

21 мар. 2025 г.

Лицензия

APACHE-2.0

APACHE-2.0

Поставщик

Qwen

Qwen

Спецификация

Государство

Available

Available

Архитектура

transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias

Vision Transformer (ViT) with window attention, SwiGLU, RMSNorm, and mRoPE, aligned with Qwen2.5 LLM structure

Калибровка

Да

Да

Смешение экспертов

Да

Нет

Общее количество параметров

14B

32B

Активированные параметры

14.7B

32B

Мышление

Нет

Нет

Точность

FP8

FP8

Длина контекста

33K

131K

Максимум Tokens

4K

131K

поддерживается функциональность

Безсерверный

поддерживается

поддерживается

Безсерверный LoRA

Не поддерживается

Не поддерживается

Тонкая настройка

Не поддерживается

Не поддерживается

Embeddings

Не поддерживается

Не поддерживается

Rerankers

Не поддерживается

Не поддерживается

Поддержка Image Input

Не поддерживается

Не поддерживается

Режим JSON

поддерживается

Не поддерживается

Структурированные Outputs

Не поддерживается

Не поддерживается

Инструменты

поддерживается

Не поддерживается

Завершение погашения

Не поддерживается

Не поддерживается

Chat Префикс Заполнение

поддерживается

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)