

Сравнение Model
Ling-flash-2.0
против
Qwen3-VL-30B-A3B-Instruct
28 февр. 2026 г.

Цены
Input
$
0.14
/ M Tokens
$
0.29
/ M Tokens
Output
$
0.57
/ M Tokens
$
1.0
/ M Tokens
Метаданные
Создать на
17 сент. 2025 г.
30 сент. 2025 г.
Лицензия
MIT LICENSE
APACHE-2.0
Поставщик
inclusionAI
Qwen
Спецификация
Государство
Available
Available
Архитектура
Ling 2.0 MoE architecture
MoE
Калибровка
Нет
Нет
Смешение экспертов
Да
Да
Общее количество параметров
100B
30B
Активированные параметры
6.1B
Мышление
Нет
Нет
Точность
FP8
FP8
Длина контекста
131K
262K
Максимум Tokens
131K
262K
поддерживается функциональность
Безсерверный
поддерживается
поддерживается
Безсерверный LoRA
Не поддерживается
Не поддерживается
Тонкая настройка
Не поддерживается
Не поддерживается
Embeddings
Не поддерживается
Не поддерживается
Rerankers
Не поддерживается
Не поддерживается
Поддержка Image Input
Не поддерживается
Не поддерживается
Режим JSON
поддерживается
поддерживается
Структурированные Outputs
Не поддерживается
Не поддерживается
Инструменты
поддерживается
поддерживается
Завершение погашения
Не поддерживается
поддерживается
Chat Префикс Заполнение
поддерживается
поддерживается
Ling-flash-2.0в сравнении
Смотрите как Ling-flash-2.0сравнивается с другими популярными моделями по ключевым параметрам.
ВС

MiniMax-M2.5
ВС

Step-3.5-Flash
ВС

MiniMax-M2.1
ВС

MiniMax-M2
ВС

Qwen3-VL-32B-Instruct
ВС

Qwen3-VL-32B-Thinking
ВС

Qwen3-VL-30B-A3B-Instruct
ВС

Qwen3-VL-30B-A3B-Thinking
ВС

Qwen3-VL-235B-A22B-Instruct
ВС

Qwen3-VL-235B-A22B-Thinking
ВС

Qwen3-Omni-30B-A3B-Instruct
ВС

Ring-flash-2.0
ВС

Qwen3-Omni-30B-A3B-Captioner
ВС

Qwen3-Omni-30B-A3B-Thinking
ВС

Qwen3-Next-80B-A3B-Instruct
ВС

Qwen3-Next-80B-A3B-Thinking
ВС
gpt-oss-120b
ВС
gpt-oss-20b
ВС

Qwen3-Coder-30B-A3B-Instruct
ВС

Qwen3-30B-A3B-Thinking-2507
