Ring-flash-2.0

Ring-flash-2.0

inclusionAI/Ring-flash-2.0

关于Ring-flash-2.0

Ring-flash-2.0 是一种高性能的思维模型,基于 Ling-flash-2.0-base 深度优化。它是一个专家混合模型 (MoE),总共有100B参数,但每次推理仅激活6.1B。该模型利用自主开发的“icepop”算法解决了强化学习 (RL) 中 MoE LLMs 的训练不稳定性挑战,能够在延长的 RL 训练周期中不断提升其复杂的推理能力。Ring-flash-2.0 在包括数学竞赛、代码生成和逻辑推理在内的挑战性基准上显示出显著的突破。其性能超越了40B参数以下的 SOTA 密集模型,并与更大的开放权重 MoE 模型和闭源高性能思维模型 API 相匹敌。更令人惊讶的是,尽管 Ring-flash-2.0 主要设计用于复杂推理,它在创意写作方面也表现出强大的能力。得益于其高效的架构,它实现了高速推理,大大降低了高并发场景中思维模型的推理成本。

可用的 Serverless

立即运行查询,仅按使用量付费

$

0.14

/

$

0.57

每 100 万 token(Input/Output)

元数据

创建

2025年9月29日

许可证

MIT LICENSE

提供者

inclusionAI

HuggingFace

规格

Available

建筑

校准的

专家混合

总参数

100B

激活的参数

6.1B

推理

精度

FP8

上下文长度

131K

最大输出长度

131K

支持功能

Serverless

支持

Serverless LoRA

不支持

微调

不支持

Embeddings

不支持

Rerankers

不支持

支持 Image Input

不支持

JSON Mode

不支持

结构化Outputs

不支持

工具

不支持

FIM 补全

不支持

对话前缀补全

支持

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?