Ling-mini-2.0 現在SiliconFlowで: MoE ModelがSOTAパフォーマンスと高効率を実現

2025/09/11

目次

Ling-mini-2.0 現在発売中 SiliconFlow
Ling-mini-2.0 現在発売中 SiliconFlow

TL;DR: Ling-mini-2.0SiliconFlowで利用可能になりました — Ant Group inclusionAIのMoEモデルは、SOTAパフォーマンスと前例のない効率性を組み合わせています。わずか1.4Bの動作するパラメータで、7-8Bの密なパフォーマンス、300+ token/sの高速、そして競争力のあるコーディング&数学能力を提供します。今、企業品質を予算に優しい価格でAPIサービスを通じて取得できます!


SiliconFlowは、Ling-mini-2.0を紹介できることを嬉しく思います — この革新的なMoEベースの言語モデルは、効率的なAIモデルの在り方を再定義します。16Bの総パラメータがありますが、トークンあたり1.4Bのみが動作し、このモデルは同じかそれ以上の大きなモデルを超えるパフォーマンスを達成し、サブ10Bの密なLLMの中でもトップクラスのパフォーマンスを提供しながら、高速とコスト効率性をワークフローに提供します。


SiliconFlowのLing-mini-2.0 APIでは、以下のことが期待できます:


  • コスト効率の良い価格設定: Ling-mini-2.0 $0.07/M tokens (input) および $0.29/M tokens (output)。

  • 拡張されたコンテキストウィンドウ: 131K により、複雑なタスクに取り組むことができます。

  • 卓越した機能: コーディングと数学的推論タスクでのリーディングパフォーマンス。


複雑なコーディングアシスタントの構築、数学的推論アプリケーションや汎用AI機能を構築する際に、SiliconFlowのLing-mini-2.0 APIは予想されるコストと遅延の一部で必要なパフォーマンスを提供します。


Ling-mini-2.0が重要である理由


多くの大規模言語モデルは、強力な推論には大量のパラメータ数が必要であるという根本的なトレードオフに直面しています。開発者は、小規模で高速なモデルが高度な推論能力を欠く状態と、高品質を提供するが予算を食い潰してアプリケーションを遅くする大型モデルとの選択に苦しむことがよくあります。


Ling-mini-2.0はこの状況を打破します:


  • 7×相当の密なパフォーマンスの活用

Ling Scaling Lawsに基づき、Ling-mini-2.0の1/32アクティベーション比MoE設計は、関連するエキスパートのみを活性化します。これにより、小型アクティベーションMoEモデルが7×相当の密なパフォーマンスを達成可能になります。言い換えれば、Ling-mini-2.0は1.4Bの動作パラメータ(非embedding 789M)で、7–8Bの密なモデルと同等のパフォーマンスを提供することが可能です。


  • 300+ token/sでの高速生成

高度にスパースなアーキテクチャにより、単純なQAシナリオでは300+ token/s生成が可能です — 同等の8Bの密なモデルより2倍以上速いです。出力長が増加すると、相対的な速度は7倍を超え、リアルタイムアプリケーションに理想的です。


  • 強力な一般的および専門的推論

高品質トークン20T以上で訓練され、複数段階の教師付きファインチューニングと強化学習によって強化されたLing-mini-2.0は、コーディング(LiveCodeBench, CodeForces)、数学(AIME 2025, HMMT 2025)、知識集約的推論(MMLU-Pro, Humanity's Last Exam)などの複雑な推論タスクにおいて卓越します。


サブ10Bの密なモデル(例、Qwen3-4B-instruct-2507, Qwen3-8B-NoThinking-2504)や大規模なMoEモデル(Ernie-4.5-21B-A3B-PT, GPT-OSS-20B/low)と比較して、Ling-mini-2.0は卓越した総合的推論能力を示しています:


ベンチマーク

Ling-Mini-2.0

Qwen3-4B-instruct-2507

Qwen3-8B-NoThinking-2504

Ernie-4.5-21B-A3B-PT

GPT-OSS-20B/low

LiveCodeBench

34.8

31.9

26.1

26.1

46.6

CodeForces

59.5

55.4

28.2

21.7

67.0

AIME 2025

47.0

48.1

23.4

16.1

38.2

HMMT 2025

🥇35.8

29.8

11.5

6.9

21.7

MMLU-Pro

65.1

62.4

52.5

65.6

65.6

Humanity's Last Exam

🥇6.0

4.6

4.0

5.1

4.7



実世界のアプリケーションシナリオ


以下のSiliconFlow Playgroundで示されているように、Ling-mini-2.0の生成スピードは技術的なベンチマークだけでなく、実世界のアプリケーションでユーザー体験を改革します。


Prompt: Create a complete Snake game in Python using pygame.


高速応答、強力なコーディング能力、高度な数学的推論により、Ling-mini-2.0は速度と知性が最も重要な産業で新たな可能性を切り開きます:


  • リアルタイムコーディングアシスタント

    • 開発中のライブコード補完

    • ワークフローを中断せずに即時デバッグ提案

    • 即時フィードバックによるインタラクティブなコードレビュー

    • 対象: IDE、コードエディタ、ペアプログラミングツール。


  • インタラクティブ教育プラットフォーム

    • 即時説明による段階的数学指導

    • プログラミングブートキャンプのためのリアルタイムQ&A

    • 遅延なしのインタラクティブ問題解決

    • 対象: EdTechプラットフォーム、オンラインコース、学習アプリ。


  • カスタマーサポート&チャットボット

    • 自然な会話のように感じる即時応答

    • 速度を損なわずに複雑な問い合わせを処理

    • 効率的にコンテキストを維持するマルチターン会話

    • 対象: カスタマーサービス、技術サポート、企業チャットボット。


直ちに始めましょう


  1. 1. 探る: Ling-mini-2.0SiliconFlow playgroundでお試しください。

  2. 2. 統合する: OpenAI互換のAPIをご利用ください。完全なAPI仕様をSiliconFlow APIドキュメントでご覧ください。


import requestsurl = "https://api.siliconflow.com/v1/chat/completions"payload = {    "model": "inclusionAI/Ling-mini-2.0",    "thinking_budget": 4096,    "top_p": 0.7,    "messages": [        {            "content": "Tell me a story",            "role": "user"        }    ]}headers = {    "Authorization": "Bearer <token>",    "Content-Type": "application/json"}response = requests.post(url, json=payload, headers=headers)print(response.json())


Ling-mini-2.0の速度と知性を体験する準備はできましたか?

今すぐAPIを利用して構築を始め、効率的なAIがどのように違いを生むかを確認してください。


ビジネスまたは販売に関するお問い合わせ →

今すぐDiscordコミュニティに参加しましょう →

最新情報をXでフォローする →

SiliconFlowで利用可能なすべてのモデルを探索する →

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow