QwQ-32B

Qwen/QwQ-32B

Tentang QwQ-32B

QwQ adalah model penalaran dari seri Qwen. Dibandingkan dengan model yang disesuaikan dengan instruksi konvensional, QwQ, yang mampu berpikir dan bernalar, dapat mencapai kinerja yang ditingkatkan secara signifikan dalam tugas hilir, terutama masalah yang sulit. QwQ-32B adalah model penalaran berukuran menengah, yang mampu mencapai kinerja kompetitif terhadap Model penalaran mutakhir, misalnya, DeepSeek-R1, o1-mini. Model ini menggabungkan teknologi seperti RoPE, SwiGLU, RMSNorm, dan bias Perhatian QKV, dengan 64 lapisan dan 40 kepala perhatian Q (8 untuk KV dalam arsitektur GQA)

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

0.15

/

$

0.58

Per 1M Token (Input/Output)

Metadata

Buat di

6 Mar 2025

Lisensi

APACHE-2.0

Penyedia

Qwen

HuggingFace

Spesifikasi

Negara

Available

Arsitektur

Terkalibrasi

Tidak

Campuran Ahli

Tidak

Total Parameter

32B

Parameter yang Diaktifkan

32.5B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

131K

Max Tokens

131K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

Tidak didukung

JSON Mode

Tidak didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

Tidak didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow