GLM-4.5 在包含推理、代码、智能体的综合能力达到开源 SOTA,在真实代码智能体的人工对比评测中,实测国内最佳采用混合专家(MoE)架构,包括 GLM-4.5:总参数量 3550 亿,激活参数 320 亿;GLM-4.5-Air:总参数 1060 亿,激活参数 120 亿;两种模式:用于复杂推理和工具使用的思考模式,及用于即时响应的非思考模式; API 已上线开放平台BigModel.cn,可以一键兼容Claude Code框架。同时,大家也可以上智谱清言(chatglm.cn) 和z.ai免费体验满血版。欢迎开发者、企业、用户广泛测试与集成,探索 AGI 的奥秘。 衡量 AGI 的第一性原理,是在不损失原有能力的前提下融合更多通用智能能力,GLM-4.5 是我们对此理念的首次完整呈现,并有幸取得技术突破。GLM-4.5 首次在单个模型中实现将推理、编码和智能体能力原生融合,以满足智能体应用的复杂需求。 为综合衡量模型的通用能力,我们选择了最具有代表性的 12 个评测基准,包括 MMLU Pro、AIME 24、MATH 500、SciCode、GPQA 、HLE、LiveCodeBench、SWE-Bench Verified、Terminal-Bench、TAU-Bench、BFCL v3 和 BrowseComp。综合平均分,GLM-4.5 取得了全球模型第三、国产模型第一,开源模型第一。 GLM-4.5 和 GLM-4.5-Air 使用了相似的训练流程:首先在 15 万亿 token 的通用数据上进行了预训练,此后在代码、推理、智能体等领域的 8 万亿 token 数据上进行针对性训练,最后通过强化学习进一步增强模型推理、代码与智能体能力。更多技术细节可参考我们的技术博客(https://z.ai/blog/glm-4.5),后续也会发布更加详细的技术报告。 GLM-4.5 参数量为 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但在多项标准基准测试中表现得更为出色,这得益于 GLM 模型的更高参数效率。在衡量模型代码能力的SWE-bench Verified榜单上,GLM-4.5 系列位于性能/参数比帕累托前沿,表明在相同规模下 GLM-4.5 系列实现了最佳性能。 在性能优化之外,GLM-4.5 系列也在成本和效率上实现突破,由此带来远低于主流模型定价:API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens。 真实场景表现比榜单更重要。为评测 GLM-4.5 在真实场景 Agent Coding 中的效果,我们接入 Claude Code 与 Claude-4-Sonnet、Kimi-K2、Qwen3-Coder 进行对比测试。测试采用 52 个编程开发任务,涵盖六大开发领域,在独立容器环境中进行多轮交互测试。实测结果显示(如下图),GLM-4.5 相对其他开源模型展现出竞争优势,特别在工具调用可靠性和任务完成度方面表现突出。尽管 GLM-4.5 相比 Claude-4-Sonnet 仍有提升空间,在大部分场景中可以实现平替的效果。 GLM-4.5 系列能胜任全栈开发任务,编写复杂应用、游戏、交互网页。这得益于模型原生具备的在前端编写网站、在后端进行数据库管理,以及通过工具调用接口支持任意的智能体应用等能力。 GLM-4.5 不仅擅长处理复杂代码,同时也具有优秀的数据精准处理、交互动画设计能力。以下是 GLM-4.5 制作的一个 Flappy Bird 小游戏,欢迎大家前来挑战。 GLM-4.5 在制作 PPT 过程中会自主搜索资料、寻找配图,根据材料以 HTML 形式编写图文,使信息更准确、排版更灵活。除了16:9的PPT,也可以制作长图、小红书、社交媒体封面或简历等多比例图片。


