Сравнение Model

Qwen2.5-VL-7B-Instruct

против

Qwen3-Omni-30B-A3B-Instruct

28 февр. 2026 г.

Цены

Input

$

0.05

/ M Tokens

$

0.1

/ M Tokens

Output

$

0.05

/ M Tokens

$

0.4

/ M Tokens

Метаданные

Создать на

26 янв. 2025 г.

20 сент. 2025 г.

Лицензия

APACHE-2.0

-

Поставщик

Qwen

Qwen

Спецификация

Государство

Available

Available

Архитектура

Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.

natively end-to-end multilingual omni-modal foundation model with MoE-based Thinker-Talker design, AuT pretraining, and multi-codebook design

Калибровка

Нет

Нет

Смешение экспертов

Нет

Да

Общее количество параметров

7B

30B

Активированные параметры

7B

3B

Мышление

Нет

Нет

Точность

FP8

FP8

Длина контекста

33K

66K

Максимум Tokens

4K

66K

поддерживается функциональность

Безсерверный

поддерживается

поддерживается

Безсерверный LoRA

Не поддерживается

Не поддерживается

Тонкая настройка

Не поддерживается

Не поддерживается

Embeddings

Не поддерживается

Не поддерживается

Rerankers

Не поддерживается

Не поддерживается

Поддержка Image Input

Не поддерживается

Не поддерживается

Режим JSON

Не поддерживается

поддерживается

Структурированные Outputs

Не поддерживается

Не поддерживается

Инструменты

Не поддерживается

поддерживается

Завершение погашения

Не поддерживается

поддерживается

Chat Префикс Заполнение

поддерживается

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)