Сравнение Model

Ling-flash-2.0

против

Qwen2.5-VL-72B-Instruct

28 февр. 2026 г.

Цены

Input

$

0.14

/ M Tokens

$

0.59

/ M Tokens

Output

$

0.57

/ M Tokens

$

0.59

/ M Tokens

Метаданные

Создать на

17 сент. 2025 г.

27 янв. 2025 г.

Лицензия

MIT LICENSE

-

Поставщик

inclusionAI

Qwen

Спецификация

Государство

Available

Available

Архитектура

Ling 2.0 MoE architecture

Vision-Language Model (VLM) with a Streamlined and Efficient Vision Encoder (ViT with window attention, SwiGLU, RMSNorm) aligned with the Qwen2.5 LLM structure. Features include Dynamic Resolution and Frame Rate Training for video understanding, mRoPE for temporal sequence and speed, and YaRN for long text context length extrapolation.

Калибровка

Нет

Нет

Смешение экспертов

Да

Нет

Общее количество параметров

100B

72B

Активированные параметры

6.1B

72B

Мышление

Нет

Нет

Точность

FP8

FP8

Длина контекста

131K

131K

Максимум Tokens

131K

4K

поддерживается функциональность

Безсерверный

поддерживается

поддерживается

Безсерверный LoRA

Не поддерживается

Не поддерживается

Тонкая настройка

Не поддерживается

Не поддерживается

Embeddings

Не поддерживается

Не поддерживается

Rerankers

Не поддерживается

Не поддерживается

Поддержка Image Input

Не поддерживается

Не поддерживается

Режим JSON

поддерживается

Не поддерживается

Структурированные Outputs

Не поддерживается

Не поддерживается

Инструменты

поддерживается

Не поддерживается

Завершение погашения

Не поддерживается

Не поддерживается

Chat Префикс Заполнение

поддерживается

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)