Ling-mini-2.0

Ling-mini-2.0

inclusionAI/Ling-mini-2.0

約Ling-mini-2.0

Ling-mini-2.0は、小型でありながら高性能な大規模言語Modelで、MoEアーキテクチャに基づいて構築されています。総パラメータは16Bですが、tokenごとにアクティブ化されるのはわずか1.4B(非Embedding 789M)であり、非常に高速な生成が可能です。効率的なMoE設計と大規模高品質なトレーニングデータのおかげで、1.4Bのアクティブ化パラメータしか持たないにもかかわらず、Ling-mini-2.0はサブ10Bの密集LLMやさらに大きなMoE Modelに匹敵するトップクラスの下流タスクパフォーマンスを提供します。

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

$

0.07

$

0.28

100万トークン(Input/Output)ごとに

メタデータ

作成する

2025/09/10

ライセンス

MIT

プロバイダー

inclusionAI

ハギングフェイス

仕様

Available

建築

キャリブレートされた

はい

専門家の混合

はい

合計パラメータ

16B

アクティブ化されたパラメータ

1.4B

推論

いいえ

Precision

FP8

コンテキスト長

131K

Max Tokens

131K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow