GLM-4-32B-0414

GLM-4-32B-0414

THUDM/GLM-4-32B-0414

Tentang GLM-4-32B-0414

GLM-4-32B-0414 adalah model generasi baru dalam keluarga GLM dengan 32 miliar parameter. Kinerjanya sebanding dengan seri GPT dari OpenAI dan seri V3/R1 dari DeepSeek, dan mendukung fitur deployment lokal yang sangat ramah pengguna. GLM-4-32B-Base-0414 dilatih sebelumnya pada 15T data berkualitas tinggi, termasuk sejumlah besar data sintetis tipe penalaran, yang menjadi dasar untuk pembelajaran penguatan ekstensi selanjutnya. Di tahap pasca-pelatihan, selain penyelarasan preferensi manusia untuk skenario dialog, tim memperkuat kinerja model dalam mengikuti instruksi, kode rekayasa, dan pemanggilan fungsi menggunakan teknik seperti penolakan sampling dan pembelajaran penguatan, memperkuat kemampuan atom yang diperlukan untuk tugas agen. GLM-4-32B-0414 mencapai hasil yang baik di bidang kode rekayasa, generasi Artefak, pemanggilan fungsi, Q&A berbasis pencarian, dan generasi laporan. Pada beberapa benchmark, kinerjanya mendekati atau bahkan melampaui model yang lebih besar seperti GPT-4o dan DeepSeek-V3-0324 (671B)

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

0.27

/

$

0.27

Per 1M Token (Input/Output)

Metadata

Buat di

18 Apr 2025

Lisensi

MIT

Penyedia

Z.ai

HuggingFace

Spesifikasi

Negara

Available

Arsitektur

Terkalibrasi

Ya

Campuran Ahli

Tidak

Total Parameter

32B

Parameter yang Diaktifkan

32B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

33K

Max Tokens

33K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

Tidak didukung

JSON Mode

didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

Tidak didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow