Ling-mini-2.0 Теперь на SiliconFlow: MoE Model с производительностью на уровне SOTA и высокой эффективностью

11 сент. 2025 г.

Содержание

Ling-mini-2.0 Теперь на SiliconFlow
Ling-mini-2.0 Теперь на SiliconFlow

Кратко: Ling-mini-2.0 теперь доступен на SiliconFlowAnt Group inclusionAI объединяет MoE модель с передовой производительностью и беспрецедентной эффективностью. С всего 1.4B активированных параметров, она обеспечивает производительность как у плотных моделей 7-8B, 300+ token/s высокая скорость и конкурентные навыки программирования и математики. Теперь вы можете получить качество корпоративного уровня по бюджетной цене через наши API-сервисы!


SiliconFlow с радостью представляет Ling-mini-2.0 — прорывную модель на основе MoE, которая переопределяет, насколько эффективными могут быть AI модели. С 16B общих параметров, но только 1.4B активировано на каждый token, эта модель достигает производительности, которая соответствует или превосходит гораздо более крупные модели, достигая высшего уровня среди плотных LLM до 10B, обеспечивая высокую скорость и экономическую эффективность для ваших потоков работ.


С API Ling-mini-2.0 от SiliconFlow, вы можете ожидать:


  • Экономично Выгодные Цены: Ling-mini-2.0 $0.07/М tokens (Input) и $0.29/М tokens (Output).

  • Расширенное Оконное Окружение: 131K позволяет пользователям решать сложные задачи.

  • Исключительные Возможности: Лидирующая производительность в задачах программирования и математического обоснования.


Независимо от того, создаете ли вы сложных ассистентов программирования, приложения для математического обоснования или AI функции общего назначения, API Ling-mini-2.0 от SiliconFlow предоставляет производительность, которая вам нужна, по меньшей стоимости и задержке.


Почему Ling-mini-2.0 Важно


Большинство крупных языковых моделей сталкиваются с фундаментальным компромиссом: мощное обоснование требует большого количества параметров, что ведет к задержкам и высоким затратам. Разработчики часто сталкиваются с выбором между меньшими, быстрыми моделями, которые лишены продвинутых возможностей обоснования, и большими моделями, которые обеспечивают качество, но истощают бюджеты и замедляют приложения.


Ling-mini-2.0 разрывает эту ситуацию:


  • 7× Эквивалентное Плотное Левериджинг

Руководствуясь Ling Scaling Laws, дизайн MoE Ling-mini-2.0 с 1/32 активационным отношением активирует только актуальных экспертов. Это позволяет малым MoE моделям достигать более 7× эквивалентной плотной производительности. Иными словами, Ling-mini-2.0 с всего 1.4B активированных параметров (невходящих в Embedding 789M) может обеспечивать производительность, эквивалентную плотной модели 7–8B.


  • Высокоскоростная Генерация на уровне 300+ token/s

Высокорарная архитектура позволяет генерацию 300+ token/s в простых QA сценариях — более чем в 2 раза быстрее, чем у сравнимых плотных моделей 8B. По мере увеличения длины Output, относительная скорость может превышать 7x, что делает её идеальной для приложений в реальном времени.


  • Сильное Общее и Профессиональное Обоснование

Обученная на более чем 20T качественных tokens и улучшенная через многоэтапное контролируемое доводка и обучение с подкреплением, Ling-mini-2.0 превосходит в сложных задачах обоснования, включая программирование (LiveCodeBench, CodeForces), математика (AIME 2025, HMMT 2025) и контекстные задачи (MMLU-Pro, Последний Экзамен Человечества).


По сравнению с плотными моделями до 10B (например, Qwen3-4B-instruct-2507, Qwen3-8B-NoThinking-2504) и крупномасштабными моделями MoE (Ernie-4.5-21B-A3B-PT, GPT-OSS-20B/low), Ling-mini-2.0 продемонстрировала выдающиеся общие возможности обоснования:


Эталон

Ling-Mini-2.0

Qwen3-4B-instruct-2507

Qwen3-8B-NoThinking-2504

Ernie-4.5-21B-A3B-PT

GPT-OSS-20B/low

LiveCodeBench

34.8

31.9

26.1

26.1

46.6

CodeForces

59.5

55.4

28.2

21.7

67.0

AIME 2025

47.0

48.1

23.4

16.1

38.2

HMMT 2025

🥇35.8

29.8

11.5

6.9

21.7

MMLU-Pro

65.1

62.4

52.5

65.6

65.6

Последний Экзамен Человечества

🥇6.0

4.6

4.0

5.1

4.7



Реальные Сценарии Применения


Как показано в нашем SiliconFlow Playground ниже, скорость генерации Ling-mini-2.0 — это не просто технический показатель — это трансформация пользовательского опыта в реальных приложениях.


Prompt: Create a complete Snake game in Python using pygame.


С молниеносными ответами, сильными возможностями программирования и продвинутым математическим обоснованием Ling-mini-2.0 открывает новые возможности в отраслях, где скорость и интеллект особенно важны:


  • Реальные Временные Ассистенты Программирования

    • Автозавершение кода в реальном времени в процессе разработки.

    • Мгновенные предложения по отладке без прерывания рабочего потока.

    • Интерактивная ревизия кода с мгновенной обратной связью.

    • Идеально для: IDEs, редакторов кода, инструментов парного программирования.


  • Интерактивные Образовательные Платформы

    • Пошаговое обучение математике с мгновенными объяснениями.

    • Вопрос-Ответ в реальном времени для программирующих курсов.

    • Интерактивное решение проблем без раздражающих задержек.

    • Идеально для: EdTech платформ, онлайн-курсов, обучающих приложений.


  • Клиентская Поддержка и Чатботы

    • Мгновенные ответы, которые звучат естественно в разговоре.

    • Обработка сложных запросов без компромисса в скорости.

    • Многоходовые диалоги, которые эффективно поддерживают контекст.

    • Идеально для: клиентской поддержки, технической поддержки, корпоративных чатботов.


Начните немедленно


  1. 1. Изучите: Попробуйте Ling-mini-2.0 в SiliconFlow Playground.

  2. 2. Интегрируйте: Используйте наш OpenAI-совместимый API. Изучите полные спецификации API в документации SiliconFlow API.


import requestsurl = "https://api.siliconflow.com/v1/chat/completions"payload = {    "model": "inclusionAI/Ling-mini-2.0",    "thinking_budget": 4096,    "top_p": 0.7,    "messages": [        {            "content": "Tell me a story",            "role": "user"        }    ]}headers = {    "Authorization": "Bearer <token>",    "Content-Type": "application/json"}response = requests.post(url, json=payload, headers=headers)print(response.json())


Готовы ощутить скорость и интеллект Ling-mini-2.0?

Начните создавать с нашим API сегодня и увидите, какую разницу может сделать эффективный AI.


Деловые или коммерческие запросы →

Присоединяйтесь к нашему сообществу Discord прямо сейчас →

Следуйте за нами на X для последних обновлений →

Изучите все доступные модели на SiliconFlow →

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)