Tentang GLM-5

GLM-5 is a next-generation open-source model for complex systems engineering and long-horizon agentic tasks, scaled to ~744B sparse parameters (~40B active) with ~28.5T pretraining tokens. It integrates DeepSeek Sparse Attention (DSA) to retain long-context capacity while reducing inference cost, and leverages the “slime” asynchronous RL stack to deliver strong performance in reasoning, coding, and agentic benchmarks.

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

1.0

/

$

3.2

Per 1M Token (Input/Output)

Metadata

Buat di

12 Feb 2026

Lisensi

MIT

Penyedia

Z.ai

HuggingFace

Spesifikasi

Negara

Available

Arsitektur

Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack

Terkalibrasi

Tidak

Campuran Ahli

Ya

Total Parameter

750B

Parameter yang Diaktifkan

40B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

205K

Max Tokens

131K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

Tidak didukung

JSON Mode

Tidak didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

Tidak didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow