关于GLM-4.5
GLM-4.5系列模型是为智能代理设计的基础模型,通过统一推理、编码和智能代理功能来满足智能代理应用的复杂需求。GLM-4.5 拥有 3550 亿个总参数和 320 亿个活跃参数,提供思考和非思考两种模式。
释放GLM-4.5智能代理的全部潜力。其统一的推理、编码和代理能力可以为复杂的真实世界挑战提供解决方案,利用深度‘思考’和快速‘非思考’模式。
自主代理编排
设计和部署能够自我改进的代理,利用GLM-4.5的统一推理和编码来规划、执行和适应复杂任务。
用例示例:
"一个代理自主管理了一云基础设施,识别性能瓶颈,编写Python脚本以扩展资源,并在没有人类干预的情况下部署修复。"
基于代理的代码重构
使代理能够分析代码库,理解架构模式,并进行复杂的重构或生成新模块,以高水平的推理能力。
用例示例:
"一个代理将一个旧Java企业应用重构为现代Spring Boot微服务,通过推理数据流和依赖关系优化模块化和可扩展性。"
战略商务智能
开发代理以合成多样的商务数据(报告、市场趋势、客户反馈),提供多方面的战略建议并预测结果。
用例示例:
"一个代理分析了季度财务报表、社交媒体情绪和竞争对手新闻,生成了一项详细的新产品市场进入策略,包括风险评估和预计的投资回报率。"
自动化系统设计与验证
利用GLM-4.5设计稳健的系统架构,验证组件间的逻辑一致性,并为部署生成配置脚本。
用例示例:
"一个代理设计了一个弹性的Kubernetes部署,用于高流量电子商务平台,生成Helm chart并验证网络策略以确保安全和可扩展性。"
动态知识合成
创建代理,从庞大的知识库中动态合成信息,解释复杂概念,并根据用户交互和推理调整学习路径。
用例示例:
"一个代理开发了一个个性化学习模块,用于高级机器学习概念,从多篇研究论文中汲取,并根据用户的先前知识和问题调整解释。"
元数据
规格
州
Deprecated
建筑
校准的
不
专家混合
是
总参数
335B
激活的参数
32B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Z.ai
chat
GLM-5
发行日期:2026年2月12日
上下文长度:
205K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
发行日期:2025年12月23日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
发行日期:2025年12月8日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
发行日期:2025年10月4日
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
发行日期:2025年7月28日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
发行日期:2025年8月13日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
发行日期:2025年7月4日
上下文长度:
66K
最大输出长度:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
发行日期:2025年4月18日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
发行日期:2025年4月18日
上下文长度:
33K
最大输出长度:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens
