关于Ring-flash-2.0
Ring-flash-2.0 是一种高性能的思维模型,基于 Ling-flash-2.0-base 深度优化。它是一个专家混合模型 (MoE),总共有100B参数,但每次推理仅激活6.1B。该模型利用自主开发的“icepop”算法解决了强化学习 (RL) 中 MoE LLMs 的训练不稳定性挑战,能够在延长的 RL 训练周期中不断提升其复杂的推理能力。Ring-flash-2.0 在包括数学竞赛、代码生成和逻辑推理在内的挑战性基准上显示出显著的突破。其性能超越了40B参数以下的 SOTA 密集模型,并与更大的开放权重 MoE 模型和闭源高性能思维模型 API 相匹敌。更令人惊讶的是,尽管 Ring-flash-2.0 主要设计用于复杂推理,它在创意写作方面也表现出强大的能力。得益于其高效的架构,它实现了高速推理,大大降低了高并发场景中思维模型的推理成本。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.14
/
$
0.57
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
是
专家混合
是
总参数
100B
激活的参数
6.1B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
不支持
结构化Outputs
不支持
工具
不支持
FIM 补全
不支持
对话前缀补全
支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

inclusionAI
chat
Ling-mini-2.0
发行日期:2025年9月10日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ling-flash-2.0
发行日期:2025年9月18日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
发行日期:2025年9月29日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
发行日期:2025年10月11日
上下文长度:
131K
最大输出长度:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
发行日期:2025年10月14日
上下文长度:
131K
最大输出长度:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
