关于Ling-mini-2.0
Ling-mini-2.0是一个基于MoE架构的小型但高性能的大型语言模型。它总共有160亿个参数,但每个token仅激活14亿个(非Embedding 7.89亿),实现了极快的生成速度。由于高效的MoE设计和大规模高质量的训练数据,虽然仅有14亿个激活参数,Ling-mini-2.0仍然可以提供与小于100亿的密集LLM和更大的MoE模型相媲美的顶级下游任务性能。
探索Ling-mini-2.0的快速生成、长文本上下文和强大的推理能力如何高效解决复杂的现实问题。
代码库分析和重构
快速分析大型代码库(128K上下文)以发现架构缺陷、安全漏洞和重构机会,提供即时的、上下文感知的建议。
用例示例:
"识别并建议重构用Go编写的复杂微服务架构,提高了可维护性并减少了50多个文件中的潜在死锁。"
实时内容生成
实时生成或总结报告、文章或营销文案,适应用户Input并在长文件中保持连贯性。
用例示例:
"从100多篇新闻文章和财务报告中自动生成每日市场摘要,为交易者在几分钟内提供简明、可操作的见解。"
法律和合规审查
快速审查冗长的法律合同、监管文件和政策手册以识别条款、确保合规性并标记潜在风险。
用例示例:
"扫描了一份500页的合并协议,突出显示了所有与知识产权转让相关的条款,并在一分钟内识别了与现有专利许可的潜在冲突。"
动态客户支持
为智能Chat机器人和虚拟助手提供动力,使它们能够理解复杂的查询,访问广泛的知识库,提供快速、准确、个性化的支持。
用例示例:
"集成到客户服务平台,它通过快速分析用户日志和产品手册解决了85%的常见技术支持问题,减少了代理工作量。"
科学假设生成
分析大量科学数据集和研究论文以识别模式,生成新的假设,并通过快速、逻辑推导协助实验设计。
用例示例:
"为药物发现项目处理了基因组测序数据及相关研究文献,建议了潜在基因目标和实验路径,加速了先导物识别。"
元数据
规格
州
Deprecated
建筑
校准的
是
专家混合
是
总参数
16B
激活的参数
1.4B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
131K
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

inclusionAI
chat
Ling-mini-2.0
发行日期:2025年9月10日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ling-flash-2.0
发行日期:2025年9月18日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
发行日期:2025年9月29日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
发行日期:2025年10月11日
上下文长度:
131K
最大输出长度:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
发行日期:2025年10月14日
上下文长度:
131K
最大输出长度:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
