Ling-mini-2.0

Ling-mini-2.0

inclusionAI/Ling-mini-2.0

О Ling-mini-2.0

Ling-mini-2.0 — это маленькая, но высокопроизводительная большая языковая Model, построенная на архитектуре MoE. Она имеет 16 миллиардов общих параметров, но только 1,4 миллиарда активируются на каждый token (не-Embedding 789 миллионов), что обеспечивает чрезвычайно быструю генерацию. Благодаря эффективному дизайну MoE и крупномасштабным высококачественным обучающим данным, несмотря на наличие всего 1,4 миллиарда активированных параметров, Ling-mini-2.0 все равно демонстрирует высочайшую производительность в downstream задачах, сопоставимую с плотными LLM до 10 миллиардов и даже более крупными моделями MoE.

Доступный Serverless

Запускайте запросы немедленно, платите только за использование

$

0.07

/

$

0.28

За 1 миллион Tokens (Input/Output)

Метаданные

Создать на

10 сент. 2025 г.

Лицензия

MIT

Поставщик

inclusionAI

HuggingFace

Спецификация

Государство

Available

Архитектура

Калибровка

Да

Смешение экспертов

Да

Общее количество параметров

16B

Активированные параметры

1.4B

Мышление

Нет

Точность

ФП8

Контекст length

131K

Максимум Tokens

131K

поддерживается функциональность

Безсерверный

поддерживается

Безсерверный LoRA

Не поддерживается

Тонкая настройка

Не поддерживается

Embeddings

Не поддерживается

Rerankers

Не поддерживается

Поддержка Image Input

Не поддерживается

Режим JSON

поддерживается

Структурированные Outputs

Не поддерживается

Инструменты

поддерживается

Завершение погашения

Не поддерживается

Chat Префикс Заполнение

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)