Сравнение Model

QwQ-32B

против

Ring-flash-2.0

28 февр. 2026 г.

Цены

Input

$

0.15

/ M Tokens

$

0.14

/ M Tokens

Output

$

0.58

/ M Tokens

$

0.57

/ M Tokens

Метаданные

Создать на

5 мар. 2025 г.

19 сент. 2025 г.

Лицензия

APACHE-2.0

MIT LICENSE

Поставщик

Qwen

inclusionAI

Спецификация

Государство

Available

Available

Архитектура

transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias, with 64 layers and GQA (40 Q attention heads, 8 for KV)

Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design

Калибровка

Нет

Да

Смешение экспертов

Нет

Да

Общее количество параметров

32B

100B

Активированные параметры

32.5B

6.1B

Мышление

Нет

Нет

Точность

FP8

FP8

Длина контекста

131K

131K

Максимум Tokens

131K

131K

поддерживается функциональность

Безсерверный

поддерживается

поддерживается

Безсерверный LoRA

Не поддерживается

Не поддерживается

Тонкая настройка

Не поддерживается

Не поддерживается

Embeddings

Не поддерживается

Не поддерживается

Rerankers

Не поддерживается

Не поддерживается

Поддержка Image Input

Не поддерживается

Не поддерживается

Режим JSON

Не поддерживается

Не поддерживается

Структурированные Outputs

Не поддерживается

Не поддерживается

Инструменты

поддерживается

Не поддерживается

Завершение погашения

Не поддерживается

Не поддерживается

Chat Префикс Заполнение

Не поддерживается

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)