Ling-flash-2.0

Ling-flash-2.0

inclusionAI/Ling-flash-2.0

Tentang Ling-flash-2.0

Ling-flash-2.0 adalah model bahasa dari inclusionAI dengan total 100 miliar parameter, di mana 6,1 miliar diaktifkan per token (4,8 miliar non-Embedding). Sebagai bagian dari seri arsitektur Ling 2.0, ini dirancang sebagai Model Mixture-of-Experts (MoE) yang ringan namun kuat. Ini bertujuan untuk memberikan kinerja yang sebanding atau bahkan melampaui model-model padat tingkat 40B dan Model MoE yang lebih besar lainnya, tetapi dengan jumlah parameter aktif yang jauh lebih kecil. Model ini mewakili strategi yang berfokus pada pencapaian performa tinggi dan efisiensi melalui desain arsitektur ekstrem dan metode pelatihan.

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

0.14

/

$

0.57

Per 1M Token (Input/Output)

Metadata

Buat di

18 Sep 2025

Lisensi

MIT LICENSE

Penyedia

inclusionAI

HuggingFace

Spesifikasi

Negara

Available

Arsitektur

Terkalibrasi

Tidak

Campuran Ahli

Ya

Total Parameter

100B

Parameter yang Diaktifkan

6.1B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

131K

Max Tokens

131K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

Tidak didukung

JSON Mode

didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow