Claude Code + GLM 4.7 实测
GLM 4.7 的基准测试成绩显著提升,用户界面生成更加简洁,并且新增了一些思考功能,使其在复杂的 Claude Code 会话中更加稳定。但基准测试成绩只是数字而已。让我来演示一下它的功能。
GLM 4.6 已经很快了,但 GLM 4.7 与 Claude Code 结合使用时,速度更是达到了另一个层次。
Z.AI 于 2025 年 12 月 22 日发布了 GLM 4.7——就在一周前——我从发布之日起就一直在进行测试。
如果您读过我关于 GLM 4.6 的文章,您就会知道我印象深刻。我称它为目前最被低估的编码模型之一。好了,现在我需要更新一下我之前说的内容。
GLM 4.7 的基准测试成绩显著提升,用户界面生成更加简洁,并且新增了一些思考功能,使其在复杂的 Claude Code 会话中更加稳定。
但基准测试成绩只是数字而已。让我来演示一下它的功能。
1、快速演示:构建实时应用程序
和我的 GLM 4.6 文章一样——演示,而非讲解。
这次我要构建一个更复杂的应用。
不仅仅是一个基础的任务管理器,而是一个具有多种功能的实时协作应用程序。
我的提示如下:
Build me a real-time collaborative todo app with:
- User authentication
- Real-time sync across devices
- Drag-and-drop task ordering
- Dark/light mode toggle
- Clean, modern UI with Tailwind
- Supabase for the backend

不到 3 分钟即可完成。
但不同之处在于——代码结构比 4.6 版本更清晰。
组件组织更合理。Tailwind 类并非随意堆砌,而是遵循一致的模式。

看看这 UI。这就是 Z.AI 所说的“氛围编码”——相比 4.6 版本,改进显而易见。
间距更合理。颜色搭配更协调。看起来像是出自设计师之手。
实时同步一次成功。身份验证已正确配置。拖放功能无需修改任何代码即可正常工作。
一次发布就能推出一款可用的应用程序,这令人印象深刻。
当然,我并不是说 GLM 4.7 比 Claude Sonnet 4.5 更好。它并非如此——至少并非在所有方面都更胜一筹。但是,每月只需 3 美元,而 Claude Sonnet 4.5 每月却要 20 到 200 美元,这无疑让 GLM 4.7 的性价比大大提升。
让我来详细介绍一下这个版本的新功能。
2、GLM 4.7 的新功能
让我们抛开营销宣传,直接看数据。
Z.AI 公布了他们的基准测试对比结果,与 GLM 4.6 相比,4.7 的改进非常显著——并非像大多数模型更新那样只有 1% 到 2% 的提升。
2.1 基准测试
以下是 4.6 到 4.7 版本之间的变化:
Terminal Bench 2.0 的性能提升幅度惊人——从 24.5% 提升到 41%。

这意味着在基于终端的编码任务中,性能提升了 16.5 个百分点。对于 Claude Code 用户而言,真正重要的是什么?
2.2 与竞争对手的对比

Z.AI 将 GLM 4.7 与 GPT-5、GPT-5.1、Claude Sonnet 4.5、Gemini 3.0 Pro 和 DeepSeek-V3.2 进行了比较。
亮点:
- 在“人类最后的考试”(HLE with Tools)测试中击败 GPT-5 High:42.8% 对 35.2%。“人类最后的考试”是目前最难的推理基准测试之一。GLM 4.7 的性能比 GPT-5 高出 7 分以上。
- 在 SWE-bench 测试中与 Claude Sonnet 4.5 不相上下:73.8% 对 77.2%。仅落后 3.4 分,而且成本更低。
- 在 τ²-Bench 测试中击败 Claude Sonnet 4.5:87.4% 对 87.2%。此基准测试测试交互式工具的调用。 GLM 4.7 在这方面略胜 Claude 一筹。
- 在 LiveCodeBench V6 测试中,GLM 4.7 的得分高达 84.9%,位居开源模型榜首,远超 Claude Sonnet 4.5 的 64.0%。
我并不是说 GLM 4.7 在所有方面都超越了 Claude——事实并非如此。
Claude Sonnet 4.5 在 SWE-bench Verified 测试和一些推理任务中仍然领先。但差距已显著缩小。
3、 四大关键改进
Z.AI 在此版本中重点改进了以下四个方面:
3.1 核心编码
多语言智能体编码得到了重大升级。在 SWE-bench Multilingual 测试中,GLM 4.7 的得分提高了 12.9%,这意味着它能够更稳定地处理 Python、JavaScript、TypeScript、Go 和其他语言。
基于终端的任务也得到了显著改进。如果您使用 Claude Code 执行 bash 操作、文件管理或系统命令,您会明显感受到性能的提升。
3.2 风格化编码
这是 Z.AI 对 UI 生成质量的描述。GLM 4.7 生成:
- 更简洁、更现代的网页
- 布局更精准、更美观的幻灯片
- 更精致的海报和视觉内容
我在演示中看到了这一点。Tailwind 类并非随意使用,而是遵循设计模式。间距、颜色和字体都显得更加用心。
3.3 工具使用
τ²-Bench 得分高达 87.4%,足以说明一切。当 GLM 4.7 需要调用外部工具(例如 API、数据库、浏览器、MCP 服务器)时,其可靠性更高。
网页浏览任务的 BrowseComp 得分从 45.1% 跃升至 52.0%。启用上下文管理后,得分达到 67.5%。
3.4 复杂推理
HLE 基准测试旨在解决需要深度推理的问题。GLM 4.7 在使用工具的情况下得分 42.8%,比 4.6 版本提升了 12.4 分。
作为参考,GPT-5.1 High 在同一基准测试中的得分为 42.7%。GLM 4.7 与之不相上下。
4、新的思维模式

这正是我最期待 Claude Code 用户体验到的。
GLM 4.7 引入了三种思维模式:
4.1 交错式思维
模型会在每次响应和每次工具调用之前进行思考。这并非新功能——它始于 GLM 4.5——但此次得到了增强。
这意味着:更好的指令执行。更高质量的代码生成。更少的模型误解用户指令的情况。
4.2 保留式思维
这对于 Claude Code 会话而言意义非凡。
在编码代理场景中,GLM 4.7 会自动保留多轮对话中的所有思考模块。它会重用现有的推理过程,而不是从头开始重新推导。
长时间的 Claude Code 会话经常会遇到上下文漂移的问题。模型会忘记三个提示之前正在执行的操作。保留思考功能显著减少了这个问题。
对于跨越多个文件和多个提示的复杂重构任务来说,这意义重大。
4.3 回合级思考
现在,您可以在会话中逐轮控制推理过程。
对于简单的请求,您可以禁用思考功能以降低延迟和成本。对于复杂的任务,启用思考功能可以提高准确性。
4.6 版本不具备这种灵活性。
5、这对 Claude Code 用户意味着什么
更好的基准测试和保留思考功能的结合,使 GLM 4.7 在智能编码工作流程中更加稳定。
在我的测试中,它在长时间会话中更好地保持了上下文。它在多文件操作中犯的错误更少。工具调用也更加可靠。
是 Claude Sonnet 4.5 吗?不是。
但两者之间的差距比以往任何时候都小——而价格差异仍然巨大。
接下来我们来谈谈价格。
6、成本真相
我们来谈谈钱。
Claude Code 定价

如果您是重度用户,每月费用约为 100-200 美元。也就是说,每年需要花费 1200-2400 美元购买一个编码助手。
GLM 4.7 定价

与 GLM 4.6 相同的每月 3 美元——但现在您将获得一个性能显著提升的版本。
快速对比

计算很简单。GLM 4.7 的价格比 Claude 低 5-6 倍,但功能却相当。
如果您已经在我的 4.6 版本文章中提到过 GLM 编码方案,那么您将自动升级到 4.7 版本。价格相同,但功能更强大。
7、GLM 4.7 与 4.6:快速总结

总体印象

现在让我来演示如何设置。
8、Claude Code 设置 GLM 4.7
大约需要 5 分钟。
前提条件
- 已安装 Claude Code(版本 2.0.33 或更高)
- Node.js 18 或更高版本
步骤 1:安装 Claude Code(如果需要)
Mac/Linux:
npm install -g @anthropic-ai/claude-codeWindows PowerShell:
irm https://claude.ai/install.ps1 | iex验证安装:
claude --version
步骤 2:创建 Z.AI 帐户并获取 API 密钥
- 访问 z.ai
- 注册(GitHub 最快)
- 选择 3 美元/月的套餐
- 前往“个人资料”→“API 密钥”或访问 z.ai/manage-apikey
- 点击“创建新密钥”
- 将其命名为“Claude Code — GLM 4.7”
- 立即复制 - 它只显示一次

步骤 3:配置 Claude Code
选项 A:快速方法(临时)
Mac/Linux:
export ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic
export ANTHROPIC_AUTH_TOKEN=your_api_key_here
claudeWindows PowerShell:
$env:ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic"
$env:ANTHROPIC_AUTH_TOKEN="your_api_key_here"
claude选项 B:永久方法(推荐)
创建或编辑 ~/.claude/settings.json:
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
"ANTHROPIC_AUTH_TOKEN": "your_api_key_here",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7"
}
}步骤 4:验证设置
打开一个新的终端并运行:
claude
/status您应该看到:
- Anthropic 基本 URL:https://api.z.ai/api/anthropic
- 模型已映射到 GLM 4.7
原文链接:I Tried Claude Code With GLM 4.7 (Here's What You Are Missing)
汇智网翻译整理,转载请标明出处