GLM-4-32B-0414

GLM-4-32B-0414

THUDM/GLM-4-32B-0414

關於GLM-4-32B-0414

GLM-4-32B-0414 是 GLM 家族中一款新一代的模型,擁有 320 億個參數。其性能可與 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相比,並支持非常用戶友好的本地部署功能。GLM-4-32B-Base-0414 在 15T 高品質數據上進行了預訓練,包括大量推理類型的合成數據,為後續的強化學習擴展奠定了基礎。在後期訓練階段,除了進行對話場景的人類偏好對齊外,團隊還通過拒絕取樣和強化學習等技術增強了模型在指令遵循、工程代碼和函數調用方面的性能,強化了代理任務所需的原子能力。GLM-4-32B-0414 在工程代碼、Artifact 生成、函數調用、基於搜索的問答和報告生成等領域取得了良好的效果。在多個基準測試中,其性能接近甚至超過較大模型如 GPT-4o 和 DeepSeek-V3-0324 (671B) 的表現。

可用的無伺服器

立即運行查詢,僅按使用量付費

$

0.27

$

0.27

每百萬 Tokens(輸入/輸出)

元數據

創建於

2025年4月18日

許可證

MIT

供應商

Z.ai

HuggingFace

規格

狀態

Available

架構

經過校準的

專家並行

總參數

32B

啟用的參數

32B

推理

精度

FP8

上下文長度

33K

最大輸出長度

33K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

不支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow