關於Ling-flash-2.0
Ling-flash-2.0 是來自 inclusionAI 的一個語言模型,總共有 1000 億個參數,其中每個詞元啟用 61 億個(不包括嵌入的部分為 48 億個)。作為 Ling 2.0 架構系列的一部分,它被設計為一個輕量級但強大的專家混合模型 (Mixture-of-Experts, MoE 模型)。它旨在提供可與 40B 級密集模型和其他更大 MoE 模型相媲美甚至超越的性能,但具有顯著較小的有效參數數量。這個模型代表了一種策略,專注於通過極端的架構設計和訓練方法來實現高性能和效率
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.14
/
$
0.57
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
可用
架構
經過校準的
不
專家並行
是
總參數
100B
啟用的參數
6.1B
推理
不
精度
FP8
上下文長度
131K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
支持
與其他模型比較
看看這個模型與其他模型的對比如何。

inclusionAI
聊天
Ling-flash-2.0
發行日期:2025年9月18日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.57
/ M Tokens

inclusionAI
聊天
Ling-mini-2.0
發行日期:2025年9月10日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.07
/ M Tokens
輸出:
$
0.28
/ M Tokens

inclusionAI
聊天
Ring-flash-2.0
發行日期:2025年9月29日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.57
/ M Tokens

inclusionAI
聊天
Ling-1T
發行日期:2025年10月11日
總上下文:
131K
最大輸出:
輸入:
$
0.57
/ M Tokens
輸出:
$
2.28
/ M Tokens

inclusionAI
聊天
Ring-1T
發行日期:2025年10月14日
總上下文:
131K
最大輸出:
輸入:
$
0.57
/ M Tokens
輸出:
$
2.28
/ M Tokens
