關於GLM-4.5
GLM-4.5 系列模型是為智能代理設計的基礎模型,通過統一推理、編碼和智能代理能力來滿足智能代理應用的複雜需求。GLM-4.5 擁有總計 3,550 億個參數,其中有 320 億個是活躍參數,提供兩種模式:思考模式和非思考模式。
利用 GLM-4.5 釋放智能代理的全部潛力。其統一的推理、編碼和代理能力能夠為複雜的現實世界挑戰提供解決方案,既發揮深度'思考'又利用快速'非思考'模式。
自主代理編排
設計和部署自我改進的代理,利用 GLM-4.5 的統一推理和編碼來規劃、執行和適應複雜任務。
使用案例範例:
"一個代理自主管理了一個雲基礎設施,識別性能瓶頸,撰寫 Python 腳本以擴展資源,並在無人干預的情況下部署修復。"
代理驅動代碼重構
使代理能夠分析代碼庫,理解建築模式,進行複雜的重構或生成具有高級推理的新模塊。
使用案例範例:
"一個代理將一個遺留的Java企業應用轉換為現代化的 Spring Boot 微服務,通過推理數據流和依賴性來優化模塊化和可擴展性。"
戰略商業智能
開發代理以合成多樣的商業數據(報告、市場趨勢、客戶反饋),提供多方面的戰略建議並預測結果。
使用案例範例:
"一個代理分析了季度財務報告、社交媒體情緒和競爭者新聞,生成了一個包含風險評估和預計投資回報率的新產品市場進入策略。"
自動化系統設計與驗證
利用 GLM-4.5 設計穩健的系統架構,驗證組件間的邏輯一致性,並生成部署的配置腳本。
使用案例範例:
"一個代理設計了一個高流量電子商務平台的高可用 Kubernetes 部署,生成 Helm 圖表並驗證網絡政策以確保安全性和可擴展性。"
動態知識合成
創建代理動態合成龐大知識庫的信息,解釋複雜概念,並根據用戶互動和推理適應學習路徑。
使用案例範例:
"一個代理為高級機器學習概念開發了一個個性化的學習模塊,從多篇研究論文中提取資料,並根據用戶的先前知識和問題來適應講解。"
元數據
規格
狀態
Deprecated
架構
Mixture of Experts
經過校準的
否
專家並行
是
總參數
335B
啟用的參數
32B
推理
否
精度
FP8
上下文長度
131K
最大輸出長度
與其他模型比較
看看這個模型與其他模型的對比如何。

Z.ai
chat
GLM-5
發行日期:2026年2月12日
總上下文:
205K
最大輸出:
131K
輸入:
$
0.3
/ M Tokens
輸出:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
發行日期:2025年12月23日
總上下文:
205K
最大輸出:
205K
輸入:
$
0.42
/ M Tokens
輸出:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
發行日期:2025年12月8日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.3
/ M Tokens
輸出:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
發行日期:2025年10月4日
總上下文:
205K
最大輸出:
205K
輸入:
$
0.39
/ M Tokens
輸出:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
發行日期:2025年7月28日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
發行日期:2025年8月13日
總上下文:
66K
最大輸出:
66K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
發行日期:2025年7月4日
總上下文:
66K
最大輸出:
66K
輸入:
$
0.035
/ M Tokens
輸出:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
發行日期:2025年4月18日
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸出:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
發行日期:2025年4月18日
總上下文:
33K
最大輸出:
33K
輸入:
$
0.27
/ M Tokens
輸出:
$
0.27
/ M Tokens
