Ling-flash-2.0

Ling-flash-2.0

inclusionAI/Ling-flash-2.0

關於Ling-flash-2.0

Ling-flash-2.0 是來自 inclusionAI 的一個語言模型,總共有 1000 億個參數,其中每個詞元啟用 61 億個(不包括嵌入的部分為 48 億個)。作為 Ling 2.0 架構系列的一部分,它被設計為一個輕量級但強大的專家混合模型 (Mixture-of-Experts, MoE 模型)。它旨在提供可與 40B 級密集模型和其他更大 MoE 模型相媲美甚至超越的性能,但具有顯著較小的有效參數數量。這個模型代表了一種策略,專注於通過極端的架構設計和訓練方法來實現高性能和效率

可用的無伺服器

立即運行查詢,僅按使用量付費

$

0.14

$

0.57

每百萬 Tokens(輸入/輸出)

元數據

創建於

2025年9月18日

許可證

MIT LICENSE

供應商

inclusionAI

HuggingFace

規格

狀態

可用

架構

經過校準的

專家並行

總參數

100B

啟用的參數

6.1B

推理

精度

FP8

上下文長度

131K

最大輸出長度

131K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow