關於Ring-flash-2.0
Ring-flash-2.0 是一個高效能的思考模型,基於 Ling-flash-2.0-base 深度優化。它是一個專家混合(MoE)模型,總共擁有 100B 參數,但每次推理僅啟動 6.1B。該模型利用自主開發的 'icepop' 演算法來解決 MoE LLMs 強化學習(RL)中訓練不穩定的挑戰,使其能夠在延長的 RL 訓練周期中持續提升其複雜推理能力。Ring-flash-2.0 在數學競賽、程式碼生成和邏輯推理等具有挑戰性的基準上顯示出顯著的突破。其表現超越了 40B 參數以下的 SOTA 密集模型,並與較大型的開源重量 MoE 模型和封閉源高效能思考模型 API 相媲美。更令人驚訝的是,雖然 Ring-flash-2.0 主要設計為複雜推理,但它在創意寫作方面也顯現出強大的能力。得益於其高效架構,它實現了高速推理,顯著降低了高併發場景下思考模型的推理成本。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.14
/
$
0.57
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
經過校準的
是
專家並行
是
總參數
100B
啟用的參數
6.1B
推理
否
精度
FP8
上下文長度
131K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
不支持
結構化輸出
不支持
工具
不支持
中間填充補全
不支持
聊天前綴補全
支持
與其他模型比較
看看這個模型與其他模型的對比如何。

inclusionAI
chat
Ling-flash-2.0
發行日期:2025年9月18日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-mini-2.0
發行日期:2025年9月10日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.07
/ M Tokens
輸出:
$
0.28
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
發行日期:2025年9月29日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
發行日期:2025年10月11日
總上下文:
131K
最大輸出:
輸入:
$
0.57
/ M Tokens
輸出:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
發行日期:2025年10月14日
總上下文:
131K
最大輸出:
輸入:
$
0.57
/ M Tokens
輸出:
$
2.28
/ M Tokens
