Ling-mini-2.0

Ling-mini-2.0

inclusionAI/Ling-mini-2.0

Tentang Ling-mini-2.0

Ling-mini-2.0 adalah model bahasa besar berperforma tinggi yang dibangun di atas arsitektur MoE. Ini memiliki total 16B parameter, tetapi hanya 1.4B yang diaktifkan per token (non-embedding 789M), memungkinkan generasi yang sangat cepat. Berkat desain MoE yang efisien dan data pelatihan berskala besar dan berkualitas tinggi, meskipun hanya memiliki 1.4B parameter yang diaktifkan, Ling-mini-2.0 tetap memberikan kinerja tugas turun-menurun yang kelas atas sebanding dengan LLM padat sub-10B dan bahkan model MoE yang lebih besar.

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

0.07

/

$

0.28

Per 1M Token (Input/Output)

Metadata

Buat di

10 Sep 2025

Lisensi

MIT

Penyedia

inclusionAI

HuggingFace

Spesifikasi

Negara

Available

Arsitektur

Terkalibrasi

Ya

Campuran Ahli

Ya

Total Parameter

16B

Parameter yang Diaktifkan

1.4B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

131K

Max Tokens

131K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

Tidak didukung

JSON Mode

didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow