Ling-mini-2.0
Tentang Ling-mini-2.0
Ling-mini-2.0 adalah model bahasa besar berperforma tinggi yang dibangun di atas arsitektur MoE. Ini memiliki total 16B parameter, tetapi hanya 1.4B yang diaktifkan per token (non-embedding 789M), memungkinkan generasi yang sangat cepat. Berkat desain MoE yang efisien dan data pelatihan berskala besar dan berkualitas tinggi, meskipun hanya memiliki 1.4B parameter yang diaktifkan, Ling-mini-2.0 tetap memberikan kinerja tugas turun-menurun yang kelas atas sebanding dengan LLM padat sub-10B dan bahkan model MoE yang lebih besar.
Jelajahi bagaimana generasi cepat Ling-mini-2.0, konteks panjang, dan penalaran yang kuat dapat memecahkan masalah kompleks di dunia nyata secara efisien.
Analisis & Refaktorisasi Basis Kode
Analisis cepat basis kode besar (konteks 128K) untuk kekurangan arsitektur, kerentanan keamanan, dan peluang refaktorisasi, memberikan saran yang cepat dan sadar konteks.
Contoh Kasus Penggunaan:
"Mengidentifikasi dan menyarankan refaktorisasi untuk arsitektur mikroservis yang kompleks yang ditulis dalam Go, meningkatkan kemampuan pemeliharaan dan mengurangi potensi deadlock di lebih dari 50+ file."
Generasi Konten Waktu Nyata
Membuat atau merangkum laporan ekstensif, artikel, atau salinan pemasaran secara real-time, beradaptasi dengan masukan pengguna dan menjaga koherensi di dokumen panjang.
Contoh Kasus Penggunaan:
"Menghasilkan rangkuman pasar harian secara otomatis dari lebih dari 100 artikel berita dan laporan keuangan, memberikan wawasan ringkas dan dapat ditindaklanjuti kepada pedagang dalam hitungan menit."
Kepatuhan Hukum & Peraturan
Dengan cepat meninjau kontrak hukum panjang, dokumen peraturan, dan manual kebijakan untuk mengidentifikasi klausul, memastikan kepatuhan, dan menandai potensi risiko.
Contoh Kasus Penggunaan:
"Memindai perjanjian merger 500 halaman, menyoroti semua klausul terkait transfer properti intelektual dan mengidentifikasi potensi konflik dengan lisensi paten yang ada dalam waktu kurang dari satu menit."
Dukungan Pelanggan Dinamis
Memberdayakan chatbots dan asisten virtual yang cerdas yang memahami pertanyaan kompleks, mengakses basis pengetahuan yang luas, dan memberikan dukungan yang cepat, akurat, serta dipersonalisasi.
Contoh Kasus Penggunaan:
"Diintegrasikan ke dalam platform layanan pelanggan, ini menyelesaikan 85% masalah dukungan teknis umum dengan cepat menganalisis log pengguna dan manual produk, mengurangi beban kerja agen."
Generasi Hipotesis Ilmiah
Analisis kumpulan data ilmiah yang luas dan makalah penelitian untuk mengidentifikasi pola, menghasilkan hipotesis baru, dan membantu dalam desain eksperimental dengan deduksi yang cepat dan logis.
Contoh Kasus Penggunaan:
"Memproses data sekuensing genom dan literatur penelitian terkait untuk proyek penemuan obat, menyarankan target gen potensial dan jalur eksperimen yang mempercepat identifikasi petunjuk."
Metadata
Spesifikasi
Negara
Deprecated
Arsitektur
Terkalibrasi
Ya
Campuran Ahli
Ya
Total Parameter
16B
Parameter yang Diaktifkan
1.4B
Penalaran
Tidak
Precision
FP8
Text panjang konteks
131K
Max Tokens
131K
Bandingkan dengan Model Lain
Lihat bagaimana model ini dibandingkan dengan yang lain.

inclusionAI
chat
Ling-mini-2.0
Dirilis pada: 10 Sep 2025
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ling-flash-2.0
Dirilis pada: 18 Sep 2025
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
Dirilis pada: 29 Sep 2025
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
Dirilis pada: 11 Okt 2025
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
Dirilis pada: 14 Okt 2025
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
