State-of-the-Art

AI Model Library

One API to run inference on 200+ cutting-edge AI models, and deploy in seconds

State-of-the-Art

AI Model Library

One API to run inference on 200+ cutting-edge AI models, and deploy in seconds

State-of-the-Art

AI Model Library

One API to run inference on 200+ cutting-edge AI models, and deploy in seconds

DeepSeek

Text Generation

DeepSeek-V3.2

Dirilis pada: 4 Des 2025

DeepSeek-V3.2 adalah sebuah Model yang mengharmoniskan efisiensi komputasi tinggi dengan keunggulan penalaran dan kinerja agen. Pendekatannya dibangun di atas tiga terobosan teknis utama: DeepSeek Sparse Attention (DSA), sebuah mekanisme perhatian yang efisien yang secara signifikan mengurangi kompleksitas komputasi sambil mempertahankan kinerja Model, yang dioptimalkan secara khusus untuk skenario konteks panjang; sebuah Kerangka Pembelajaran Penguatan yang Dapat Diskalakan, yang memungkinkan kinerja yang sebanding dengan GPT-5 dan kepiawaian penalaran yang setara dengan Gemini-3.0-Pro dalam varian komputasi tinggi; dan sebuah Large-Scale Agentic Task Synthesis Pipeline untuk mengintegrasikan penalaran ke dalam skenario penggunaan alat, meningkatkan kepatuhan dan generalisasi dalam lingkungan interaktif yang kompleks. Model ini telah mencapai kinerja medali emas dalam Olimpiade Matematika Internasional (IMO) 2025 dan Olimpiade Informatika Internasional (IOI)....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.42

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.2-Exp

Dirilis pada: 10 Okt 2025

DeepSeek-V3.2-Exp adalah versi eksperimental dari model DeepSeek, dibangun di atas V3.1-Terminus. Ini memperkenalkan DeepSeek Sparse Attention(DSA) untuk pelatihan dan inference yang lebih cepat dan efisien pada konteks yang panjang....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.41

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1-Terminus

Dirilis pada: 29 Sep 2025

DeepSeek-V3.1-Terminus adalah versi terbaru yang dibangun di atas kekuatan V3.1 sambil menangani umpan balik pengguna utama. Ini meningkatkan konsistensi bahasa, mengurangi kejadian teks China-Inggris campuran dan karakter abnormal sesekali. Dan juga meningkatkan kinerja Agen Kode & Agen Pencarian yang lebih kuat....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1

Dirilis pada: 25 Agu 2025

DeepSeek-V3.1 adalah model hibrida yang mendukung mode berfikir dan mode tidak berfikir. Melalui optimalisasi pasca-pelatihan, performa model dalam penggunaan alat dan tugas agen telah meningkat secara signifikan. DeepSeek-V3.1-Think mencapai kualitas jawaban yang sebanding dengan DeepSeek-R1-0528, sambil merespons lebih cepat....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3

Dirilis pada: 26 Des 2024

DeepSeek-V3-0324 menunjukkan perbaikan yang signifikan dibandingkan pendahulunya, DeepSeek-V3, dalam beberapa aspek kunci, termasuk peningkatan besar dalam kinerja penalaran, keterampilan pengembangan front-end yang lebih kuat, dan kemampuan penggunaan alat yang lebih cerdas....

Total Context:

164K

Max output:

164K

Input:

$

0.25

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1

Dirilis pada: 28 Mei 2025

DeepSeek-R1-0528 adalah model yang ditingkatkan menunjukkan peningkatan signifikan dalam menangani tugas penalaran kompleks, juga menawarkan tingkat halusinasi yang berkurang, dukungan yang ditingkatkan untuk pemanggilan fungsi, dan pengalaman yang lebih baik untuk pengkodean vibe. Ini mencapai kinerja yang sebanding dengan O3 dan Gemini 2.5 Pro....

Total Context:

164K

Max output:

164K

Input:

$

0.5

/ M Tokens

Output:

$

2.18

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-32B

Dirilis pada: 20 Jan 2025

DeepSeek-R1-Distill-Qwen-32B adalah model distilled berdasarkan Qwen2.5-32B. Model ini telah di-tuning ulang menggunakan 800k sampel terkurasi yang dihasilkan oleh DeepSeek-R1 dan menunjukkan kinerja yang luar biasa di berbagai tugas matematika, pemrograman, dan logika. Model ini mencapai hasil yang mengesankan dalam berbagai tolok ukur termasuk AIME 2024, MATH-500, dan GPQA Diamond, dengan akurasi yang menonjol sebesar 94,3% pada MATH-500, menunjukkan kemampuan penalaran matematis yang kuat....

Total Context:

131K

Max output:

131K

Input:

$

0.18

/ M Tokens

Output:

$

0.18

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-14B

Dirilis pada: 20 Jan 2025

DeepSeek-R1-Distill-Qwen-14B adalah model distilasi berdasarkan Qwen2.5-14B. Model ini disesuaikan menggunakan 800k sampel terkurasi yang dihasilkan oleh DeepSeek-R1 dan menunjukkan kemampuan penalaran yang kuat. Ini mencapai hasil yang mengesankan di berbagai tolok ukur, termasuk akurasi 93,9% pada MATH-500, tingkat kelulusan 69,7% pada AIME 2024, dan peringkat 1481 di CodeForces, menunjukkan kemampuannya yang kuat dalam tugas matematika dan pemrograman....

Total Context:

131K

Max output:

131K

Input:

$

0.1

/ M Tokens

Output:

$

0.1

/ M Tokens

DeepSeek

Text Generation

deepseek-vl2

Dirilis pada: 13 Des 2024

DeepSeek-VL2 adalah model vision-language dengan tenaga ahli campuran (MoE) yang dikembangkan berdasarkan DeepSeekMoE-27B, menggunakan arsitektur MoE yang diaktifkan secara jarang untuk mencapai kinerja superior dengan hanya 4.5B parameter aktif. Model ini unggul dalam berbagai tugas termasuk menjawab pertanyaan visual, pengenalan karakter optik, pemahaman dokumen/tabel/chart, dan penempatan visual. Dibandingkan dengan model dense open-source yang ada dan model berbasis MoE, ia menunjukkan kinerja yang kompetitif atau paling unggul dengan menggunakan parameter aktif yang sama atau lebih sedikit....

Total Context:

4K

Max output:

4K

Input:

$

0.15

/ M Tokens

Output:

$

0.15

/ M Tokens

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow