Ring-flash-2.0
О Ring-flash-2.0
Ring-flash-2.0 — это высокопроизводительный размышляющий Model, глубоко оптимизированный на базе Ling-flash-2.0-base. Это Model с Поцелуем-Экспертов (MoE) и общим количеством параметров 100B, но только 6.1B активируются при Inference. Этот Model использует независимо разработанный алгоритм 'icepop' для решения проблем нестабильности обучения в обучении с подкреплением (RL) для моделей MoE LLM, обеспечивая непрерывное улучшение своих сложных способностей к рассуждению в течение длительных циклов обучения RL. Ring-flash-2.0 демонстрирует значительные прорывы в сложных эталонных тестах, включая математические соревнования, генерацию кода и логическое рассуждение. Его производительность превосходит SOTA плотные модели под 40B параметров и соперничает с более крупными открытыми MoE-моделями и закрытыми высокопроизводительными размышляющими модельными API. Еще более удивительно, что хотя Ring-flash-2.0 в первую очередь разработан для сложных рассуждений, он также демонстрирует сильные способности в творческом письме. Благодаря своей эффективной архитектуре, он достигает высокой скорости Inference, значительно снижая затраты на Inference для размышляющих моделей в условиях высокой одновременности.
Доступный Serverless
Запускайте запросы немедленно, платите только за использование
$
0.14
/
$
0.57
За 1 миллион Tokens (Input/Output)
Метаданные
Спецификация
Государство
Available
Архитектура
Калибровка
Да
Смешение экспертов
Да
Общее количество параметров
100B
Активированные параметры
6.1B
Мышление
Нет
Точность
ФП8
Контекст length
131K
Максимум Tokens
131K
поддерживается функциональность
Безсерверный
поддерживается
Безсерверный LoRA
Не поддерживается
Тонкая настройка
Не поддерживается
Embeddings
Не поддерживается
Rerankers
Не поддерживается
Поддержка Image Input
Не поддерживается
Режим JSON
Не поддерживается
Структурированные Outputs
Не поддерживается
Инструменты
Не поддерживается
Завершение погашения
Не поддерживается
Chat Префикс Заполнение
поддерживается
Сравнить с другими Model
Посмотрите, как эта Model сравнивается с другими.

inclusionAI
chat
Ling-flash-2.0
Выпуск: 18 сент. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-mini-2.0
Выпуск: 10 сент. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
Выпуск: 29 сент. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
Выпуск: 11 окт. 2025 г.
Общий Контекст:
131K
Максимальный Output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
Выпуск: 14 окт. 2025 г.
Общий Контекст:
131K
Максимальный Output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
