GLM-5

關於GLM-5

GLM-5 is a next-generation open-source model for complex systems engineering and long-horizon agentic tasks, scaled to ~744B sparse parameters (~40B active) with ~28.5T pretraining tokens. It integrates DeepSeek Sparse Attention (DSA) to retain long-context capacity while reducing inference cost, and leverages the “slime” asynchronous RL stack to deliver strong performance in reasoning, coding, and agentic benchmarks.

可用的無伺服器

立即運行查詢,僅按使用量付費

$

1.0

$

3.2

每百萬 Tokens(輸入/輸出)

元數據

創建於

2026年2月12日

許可證

MIT

供應商

Z.ai

HuggingFace

規格

狀態

Available

架構

Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack

經過校準的

專家並行

總參數

750B

啟用的參數

40B

推理

精度

FP8

上下文長度

205K

最大輸出長度

131K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

不支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

不支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow