GLM-4.5 现已在 SiliconFlow 上发布:开源 SOTA 模型,用于推理、代码和代理应用

2025年7月28日

目录

GLM-4.5 现已在 SiliconFlow 上可用

今天,我们很高兴将GLM-4.5GLM-4.5-Air,Z.ai 的最新旗舰模型系列,集成到 SiliconFlow 平台。这一突破性的模型系列通过将推理、编码和代理能力本地统一到单个模型中,标志着 AGI 开发的一个重要里程碑,以满足快速增长的代理应用程序的越来越复杂的要求。

无论您是在处理全栈开发项目、复杂的代码重构,还是构建自主代理系统,GLM-4.5 都提供智能代理应用所需的先进功能和可靠性。这一强大的模型补充使开发人员能够突破智能自动化和复杂问题解决场景的可能性界限。

通过 SiliconFlow 的 GLM-4.5 API,您可以期待:

  • 成本效益高的定价:GLM-4.5 $0.5/M tokens (Input) 和 $2/M tokens (Output);GLM-4.5-Air $0.14/M tokens (Input) 和 $0.86/M tokens (Output)。

  • 扩展上下文窗口:128K 上下文窗口用于复杂任务。

关键能力与基准性能

现在可在 SiliconFlow 上的 GLM-4.5 模型系列具有以下关键能力:

  • SOTA 性能:在推理、代码生成和代理能力方面,提供领先的开源模型结果,并在真实世界代码代理评估中表现出行业领先的性能。

  • MoE 架构:GLM-4.5 拥有 355B 总/32B 活跃参数,而 GLM-4.5-Air 采用紧凑设计,拥有 106B 总/12B 活跃参数。两者均利用专家混合设计实现最佳效率。

  • 混合推理:两者都提供用于复杂任务的思考模式和用于即时响应的非思考模式。

为了全面评估 GLM-4.5 的通用能力,Z.ai 选择了 12 个代表性基准,涵盖三个核心领域:推理(MMLU Pro、AIME 24、MATH 500)、编码(SciCode、GPQA、HLE、LiveCodeBench、SWE-Bench Verified)和代理能力(Terminal-Bench、TAU-Bench、BFCL v3、BrowseComp)。

在这些综合指标上,GLM-4.5 展现出卓越的表现:

  • 全球排名在所有模型中排名第 3,在 12 个综合基准上,得分 63.2 — 紧随领先者 Grok-4 (63.6) 并超越 Claude 4 Opus (60.9)

  • 开源冠军:开源类别中表现最好的模型。

  • 技术领域:在数学推理、科学问题解决、代码生成、代理工作流和复杂任务执行方面展现出色能力。

GLM-4.5 如此强大的原因

先进的训练流程

Z.ai 通过一个复杂的三阶段过程开发了 GLM-4.5:

  • 预训练:15 万亿个 token 的通用数据,提供基础能力。

  • 领域特定训练:8 万亿个 token 专注于代码、推理和代理任务。

  • 强化学习:增强在推理、编码和代理工作流方面的性能。

卓越的参数效率

通过帕累托前沿分析,GLM-4.5 展现出卓越的效率:

  • 最佳缩放:相对于同等规模的模型表现优异。

  • 效率领导:在性能-规模权衡边界上达到最佳效率。

  • 资源优势:参数数量是 DeepSeek-R1 的一半,是 Kimi-K2 的三分之一。

  • 成本效益:更高的参数效率转化为更快的推理和更低的运营成本。

实际性能

除了基准评估,GLM-4.5 的实际能力在真实世界编码场景中经过严格测试:

代理编码评估

使用 Claude Code 对 GLM-4.5 的代理编码能力进行独立评估,涵盖 52 个多样化的编码任务,包括前端开发、工具创建、数据分析、测试和算法实现。

竞争结果:

  • 对比 Kimi K2:在面对面比较中赢得 53.9% 的胜率。

  • 对比 Qwen3-Coder:80.8% 的成功率,展现出明显的优越性

  • 对比 Claude-4-Sonnet:竞争性能,但优化空间依然存在

  • 工具调用准确性:领先的 90.6% 成功率,超越 Claude-4-Sonnet (89.5%)、Kimi-K2 (86.2%) 和 Qwen3-Coder (77.1%)

实际应用场景

GLM-4.5 的能力超越基准测试,在实际开发场景中展示了多领域的灵活性,通过真实世界的实现证明了其实用性。

互动工件创建

GLM-4.5 可创建复杂的独立工件——从互动小游戏到物理模拟——支持 HTML、SVG、Python 和其他格式,提供高级代理编码应用的卓越用户体验。

幻灯片创建

借助 GLM-4.5 强大的代理工具使用和 HTML 编码能力,模型原生 PPT/海报代理可自动搜索网络、检索图片,并从简单的请求或上传的文档中创建幻灯片。

全栈 Web 开发

GLM-4.5 在现代 Web 应用的前端和后端开发中表现出色。用户只需几句话即可创建整个网站,然后通过多轮对话轻松添加功能,使编码过程顺畅而愉快。

这些实际场景展示了 GLM-4.5 在专业开发工作流中的实际效用,从快速原型设计到完整应用交付。

立即开始

import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "zai-org/GLM-4.5",
    "messages": [
        {
            "role": "user",
            "content": "Tell me a story"
        }
    ],
    "top_p": 0.95,
    "temperature": 0.6
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.request("POST", url, json=payload, headers=headers)

print(response.text)
import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "zai-org/GLM-4.5",
    "messages": [
        {
            "role": "user",
            "content": "Tell me a story"
        }
    ],
    "top_p": 0.95,
    "temperature": 0.6
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.request("POST", url, json=payload, headers=headers)

print(response.text)
import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "zai-org/GLM-4.5",
    "messages": [
        {
            "role": "user",
            "content": "Tell me a story"
        }
    ],
    "top_p": 0.95,
    "temperature": 0.6
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.request("POST", url, json=payload, headers=headers)

print(response.text)

今天就在SiliconFlow上使用 GLM-4.5 和 GLM-4.5-Air API 构建!

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?