关于Ling-flash-2.0
Ling-flash-2.0 是来自 inclusionAI 的一种语言模型,拥有总共1000亿个参数,其中每个 token 激活了61亿个(48亿个非Embedding)。作为 Ling 2.0 架构系列的一部分,它被设计为一种轻量级但强大的专家混合(MoE)模型。它旨在提供可与40B级密集模型和其他更大的 MoE 模型相媲美甚至超越的性能,但活跃参数数量明显更少。该模型代表了一种策略,专注于通过极端的架构设计和训练方法实现高性能和高效率。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.14
/
$
0.57
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
不
专家混合
是
总参数
100B
激活的参数
6.1B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

inclusionAI
chat
Ling-mini-2.0
发行日期:2025年9月10日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ling-flash-2.0
发行日期:2025年9月18日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
发行日期:2025年9月29日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
发行日期:2025年10月11日
上下文长度:
131K
最大输出长度:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
发行日期:2025年10月14日
上下文长度:
131K
最大输出长度:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
