
inclusionAI
Text Generation
Ling-flash-2.0
Ling-flash-2.0 是来自 inclusionAI 的一种语言模型,拥有总共1000亿个参数,其中每个 token 激活了61亿个(48亿个非Embedding)。作为 Ling 2.0 架构系列的一部分,它被设计为一种轻量级但强大的专家混合(MoE)模型。它旨在提供可与40B级密集模型和其他更大的 MoE 模型相媲美甚至超越的性能,但活跃参数数量明显更少。该模型代表了一种策略,专注于通过极端的架构设计和训练方法实现高性能和高效率。...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
Text Generation
Ring-flash-2.0
Ring-flash-2.0 是一种高性能的思维模型,基于 Ling-flash-2.0-base 深度优化。它是一个专家混合模型 (MoE),总共有100B参数,但每次推理仅激活6.1B。该模型利用自主开发的“icepop”算法解决了强化学习 (RL) 中 MoE LLMs 的训练不稳定性挑战,能够在延长的 RL 训练周期中不断提升其复杂的推理能力。Ring-flash-2.0 在包括数学竞赛、代码生成和逻辑推理在内的挑战性基准上显示出显著的突破。其性能超越了40B参数以下的 SOTA 密集模型,并与更大的开放权重 MoE 模型和闭源高性能思维模型 API 相匹敌。更令人惊讶的是,尽管 Ring-flash-2.0 主要设计用于复杂推理,它在创意写作方面也表现出强大的能力。得益于其高效的架构,它实现了高速推理,大大降低了高并发场景中思维模型的推理成本。...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.57
/ M Tokens

