Сравнение Model

Ling-flash-2.0

против

Qwen3-VL-32B-Instruct

28 февр. 2026 г.

Цены

Input

$

0.14

/ M Tokens

$

0.2

/ M Tokens

Output

$

0.57

/ M Tokens

$

0.6

/ M Tokens

Метаданные

Создать на

17 сент. 2025 г.

19 окт. 2025 г.

Лицензия

MIT LICENSE

APACHE-2.0

Поставщик

inclusionAI

Qwen

Спецификация

Государство

Available

Available

Архитектура

Ling 2.0 MoE architecture

MoE

Калибровка

Нет

Нет

Смешение экспертов

Да

Да

Общее количество параметров

100B

32B

Активированные параметры

6.1B

Мышление

Нет

Нет

Точность

FP8

FP8

Длина контекста

131K

262K

Максимум Tokens

131K

262K

поддерживается функциональность

Безсерверный

поддерживается

поддерживается

Безсерверный LoRA

Не поддерживается

Не поддерживается

Тонкая настройка

Не поддерживается

Не поддерживается

Embeddings

Не поддерживается

Не поддерживается

Rerankers

Не поддерживается

Не поддерживается

Поддержка Image Input

Не поддерживается

Не поддерживается

Режим JSON

поддерживается

поддерживается

Структурированные Outputs

Не поддерживается

Не поддерживается

Инструменты

поддерживается

поддерживается

Завершение погашения

Не поддерживается

Не поддерживается

Chat Префикс Заполнение

поддерживается

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)