Claude Code + GLM 4.7 实测

GLM 4.7 的基准测试成绩显著提升,用户界面生成更加简洁,并且新增了一些思考功能,使其在复杂的 Claude Code 会话中更加稳定。但基准测试成绩只是数字而已。让我来演示一下它的功能。

Claude Code + GLM 4.7 实测

GLM 4.6 已经很快了,但 GLM 4.7 与 Claude Code 结合使用时,速度更是达到了另一个层次。

Z.AI 于 2025 年 12 月 22 日发布了 GLM 4.7——就在一周前——我从发布之日起就一直在进行测试。

如果您读过我关于 GLM 4.6 的文章,您就会知道我印象深刻。我称它为目前最被低估的编码模型之一。好了,现在我需要更新一下我之前说的内容。

GLM 4.7 的基准测试成绩显著提升,用户界面生成更加简洁,并且新增了一些思考功能,使其在复杂的 Claude Code 会话中更加稳定。

但基准测试成绩只是数字而已。让我来演示一下它的功能。

1、快速演示:构建实时应用程序

和我的 GLM 4.6 文章一样——演示,而非讲解。

这次我要构建一个更复杂的应用。

不仅仅是一个基础的任务管理器,而是一个具有多种功能的实时协作应用程序。

我的提示如下:

Build me a real-time collaborative todo app with:
- User authentication
- Real-time sync across devices
- Drag-and-drop task ordering
- Dark/light mode toggle
- Clean, modern UI with Tailwind
- Supabase for the backend

不到 3 分钟即可完成。

但不同之处在于——代码结构比 4.6 版本更清晰。

组件组织更合理。Tailwind 类并非随意堆砌,而是遵循一致的模式。

看看这 UI。这就是 Z.AI 所说的“氛围编码”——相比 4.6 版本,改进显而易见。

间距更合理。颜色搭配更协调。看起来像是出自设计师之手。

实时同步一次成功。身份验证已正确配置。拖放功能无需修改任何代码即可正常工作。

一次发布就能推出一款可用的应用程序,这令人印象深刻。

当然,我并不是说 GLM 4.7 比 Claude Sonnet 4.5 更好。它并非如此——至少并非在所有方面都更胜一筹。但是,每月只需 3 美元,而 Claude Sonnet 4.5 每月却要 20 到 200 美元,这无疑让 GLM 4.7 的性价比大大提升。

让我来详细介绍一下这个版本的新功能。

2、GLM 4.7 的新功能

让我们抛开营销宣传,直接看数据。

Z.AI 公布了他们的基准测试对比结果,与 GLM 4.6 相比,4.7 的改进非常显著——并非像大多数模型更新那样只有 1% 到 2% 的提升。

2.1 基准测试

以下是 4.6 到 4.7 版本之间的变化:

Terminal Bench 2.0 的性能提升幅度惊人——从 24.5% 提升到 41%。

这意味着在基于终端的编码任务中,性能提升了 16.5 个百分点。对于 Claude Code 用户而言,真正重要的是什么?

2.2 与竞争对手的对比

Z.AI 将 GLM 4.7 与 GPT-5、GPT-5.1、Claude Sonnet 4.5、Gemini 3.0 Pro 和 DeepSeek-V3.2 进行了比较。

亮点:

  • 在“人类最后的考试”(HLE with Tools)测试中击败 GPT-5 High:42.8% 对 35.2%。“人类最后的考试”是目前最难的推理基准测试之一。GLM 4.7 的性能比 GPT-5 高出 7 分以上。
  • 在 SWE-bench 测试中与 Claude Sonnet 4.5 不相上下:73.8% 对 77.2%。仅落后 3.4 分,而且成本更低。
  • 在 τ²-Bench 测试中击败 Claude Sonnet 4.5:87.4% 对 87.2%。此基准测试测试交互式工具的调用。 GLM 4.7 在这方面略胜 Claude 一筹。
  • 在 LiveCodeBench V6 测试中,GLM 4.7 的得分高达 84.9%,位居开源模型榜首,远超 Claude Sonnet 4.5 的 64.0%。

我并不是说 GLM 4.7 在所有方面都超越了 Claude——事实并非如此。

Claude Sonnet 4.5 在 SWE-bench Verified 测试和一些推理任务中仍然领先。但差距已显著缩小。

3、 四大关键改进

Z.AI 在此版本中重点改进了以下四个方面:

3.1 核心编码

多语言智能体编码得到了重大升级。在 SWE-bench Multilingual 测试中,GLM 4.7 的得分提高了 12.9%,这意味着它能够更稳定地处理 Python、JavaScript、TypeScript、Go 和其他语言。

基于终端的任务也得到了显著改进。如果您使用 Claude Code 执行 bash 操作、文件管理或系统命令,您会明显感受到性能的提升。

3.2 风格化编码

这是 Z.AI 对 UI 生成质量的描述。GLM 4.7 生成:

  • 更简洁、更现代的网页
  • 布局更精准、更美观的幻灯片
  • 更精致的海报和视觉内容

我在演示中看到了这一点。Tailwind 类并非随意使用,而是遵循设计模式。间距、颜色和字体都显得更加用心。

3.3 工具使用

τ²-Bench 得分高达 87.4%,足以说明一切。当 GLM 4.7 需要调用外部工具(例如 API、数据库、浏览器、MCP 服务器)时,其可靠性更高。

网页浏览任务的 BrowseComp 得分从 45.1% 跃升至 52.0%。启用上下文管理后,得分达到 67.5%。

3.4 复杂推理

HLE 基准测试旨在解决需要深度推理的问题。GLM 4.7 在使用工具的情况下得分 42.8%,比 4.6 版本提升了 12.4 分。

作为参考,GPT-5.1 High 在同一基准测试中的得分为 42.7%。GLM 4.7 与之不相上下。

4、新的思维模式

这正是我最期待 Claude Code 用户体验到的。

GLM 4.7 引入了三种思维模式:

4.1 交错式思维

模型会在每次响应和每次工具调用之前进行思考。这并非新功能——它始于 GLM 4.5——但此次得到了增强。

这意味着:更好的指令执行。更高质量的代码生成。更少的模型误解用户指令的情况。

4.2 保留式思维

这对于 Claude Code 会话而言意义非凡。

在编码代理场景中,GLM 4.7 会自动保留多轮对话中的所有思考模块。它会重用现有的推理过程,而不是从头开始重新推导。

长时间的 Claude Code 会话经常会遇到上下文漂移的问题。模型会忘记三个提示之前正在执行的操作。保留思考功能显著减少了这个问题。

对于跨越多个文件和多个提示的复杂重构任务来说,这意义重大。

4.3 回合级思考

现在,您可以在会话中逐轮控制推理过程。

对于简单的请求,您可以禁用思考功能以降低延迟和成本。对于复杂的任务,启用思考功能可以提高准确性。

4.6 版本不具备这种灵活性。

5、这对 Claude Code 用户意味着什么

更好的基准测试和保留思考功能的结合,使 GLM 4.7 在智能编码工作流程中更加稳定。

在我的测试中,它在长时间会话中更好地保​​持了上下文。它在多文件操作中犯的错误更少。工具调用也更加可靠。

是 Claude Sonnet 4.5 吗?不是。

但两者之间的差距比以往任何时候都小——而价格差异仍然巨大。

接下来我们来谈谈价格。

6、成本真相

我们来谈谈钱。

Claude Code 定价

如果您是重度用户,每月费用约为 100-200 美元。也就是说,每年需要花费 1200-2400 美元购买一个编码助手。

GLM 4.7 定价

与 GLM 4.6 相同的每月 3 美元——但现在您将获得一个性能显著提升的版本。

快速对比

计算很简单。GLM 4.7 的价格比 Claude 低 5-6 倍,但功能却相当。

如果您已经在我的 4.6 版本文章中提到过 GLM 编码方案,那么您将自动升级到 4.7 版本。价格相同,但功能更强大。

7、GLM 4.7 与 4.6:快速总结

总体印象

现在让我来演示如何设置。

8、Claude Code 设置 GLM 4.7

大约需要 5 分钟。

前提条件

  • 已安装 Claude Code(版本 2.0.33 或更高)
  • Node.js 18 或更高版本

步骤 1:安装 Claude Code(如果需要)

Mac/Linux:

npm install -g @anthropic-ai/claude-code

Windows PowerShell:

irm https://claude.ai/install.ps1 | iex

验证安装:

claude --version

步骤 2:创建 Z.AI 帐户并获取 API 密钥

  • 访问 z.ai
  • 注册(GitHub 最快)
  • 选择 3 美元/月的套餐
  • 前往“个人资料”→“API 密钥”或访问 z.ai/manage-apikey
  • 点击“创建新密钥”
  • 将其命名为“Claude Code — GLM 4.7”
  • 立即复制 - 它只显示一次

步骤 3:配置 Claude Code

选项 A:快速方法(临时)

Mac/Linux:

export ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic
export ANTHROPIC_AUTH_TOKEN=your_api_key_here
claude

Windows PowerShell:

$env:ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic"
$env:ANTHROPIC_AUTH_TOKEN="your_api_key_here"
claude

选项 B:永久方法(推荐)

创建或编辑 ~/.claude/settings.json:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "your_api_key_here",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7"
  }
}

步骤 4:验证设置

打开一个新的终端并运行:

claude
/status

您应该看到:


原文链接:I Tried Claude Code With GLM 4.7 (Here's What You Are Missing)

汇智网翻译整理,转载请标明出处