5个OpenClaw可用的免费AI模型

我曾担心 Anthropic 会因为我在 OpenClaw 中运行 Claude 而封禁我的账户。

有报道称,用户在发布后的第一周就被标记了。然后它发生了——Anthropic 完全阻止了在 OpenClaw 中使用 Claude Max tokens。

我另一个担心的是成本。

每天在 OpenClaw 上运行 Claude Sonnet 的消耗超出了我的预期。每条消息都会将完整的对话历史发送给模型。

所以我开始寻找免费的替代方案。

经过数周测试不同的模型、提供商和配置,我找到了 5 个可以与 OpenClaw 配合使用的模型。

有些模型可以在本地运行。有些使用免费云层,足够完成工作。

我学到了——"免费"根据你选择的路线有不同含义。本地模型每个 token 不花钱,但需要不错的硬件。

云免费层给你一个每日重置的配额。有些模型非常便宜,四舍五入后接近零。

在本文中,我将详细介绍我使用的 5 个模型、为什么使用它们,以及如何在 OpenClaw 中设置每个模型。

1. Kimi K2.5

来自 Moonshot AI 的 Kimi K2.5 是目前 OpenRouter 上最受欢迎的免费模型。

我最初将它作为临时备用方案,同时我完善设置。最终它成为了我在 OpenClaw 中的首选模型。
  • 推理质量接近 Claude Sonnet
  • 工具调用正常工作
  • 128K 上下文窗口可以处理长 OpenClaw 会话,不会丢失早期消息。
  • 非常适合处理阅读电子邮件、管理日历和运行自动化的代理
Moonshot 已宣布在其平台上提供永久免费访问。在 OpenRouter 上,免费层大约每分钟给你 20 个请求,每日重置。

设置方法:

openclaw config set agents.defaults.model.primary "openrouter/moonshotai/kimi-k2.5"
如果你使用 Ollama,还有更快的路线。Kimi K2.5 在 Ollama 上作为云模型可用,因此你可以用一行命令直接启动它并与 OpenClaw 配合:
ollama launch openclaw --model kimi-k2.5:cloud

最佳用途: 通用代理工作、编码任务、研究和内容起草。如果你想使用免费云推理,这是我推荐的入门模型。

局限性: 免费层的速率限制意味着重度用户在高负载会话时会遇到瓶颈。

2. 通过 OAuth 的 Qwen

大多数人在寻找免费 OpenClaw 模型时会跳过 Qwen。

  • OpenClaw 有一个内置插件用于 Qwen 的 OAuth 流程
  • 你通过设备代码进行一次认证,即可访问 Qwen Coder 和 Qwen Vision 模型,每天 2000 次免费请求
  • Qwen 3.5 具有原生代理能力;它被设计为可以思考、搜索、使用工具和构建
设置方法如下:
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default

登录后,你的模型引用类似于 qwen-portal/coder-modelqwen-portal/vision-model

Token 会自动刷新,所以你不需要一直登录。

我不会用这个运行整个团队。但对于处理编码任务、文件读取和日常自动化的个人 OpenClaw 代理,Qwen 免费层可以完成工作。

最佳用例: 编码任务、基于视觉的工作流程,以及任何想要可靠免费层但不想处理多个 API 密钥的人。

局限性: 如果 OAuth token 过期或被撤销,你需要重新运行登录命令。

3. Gemini Flash

Google 的 Gemini Flash 是如果你想要大上下文窗口而不付费的情况下云推理的最佳免费选项。

  • 免费层每分钟给你 15 个请求,最高达 100 万个 token 的上下文
  • 对于越来越长的 OpenClaw 会话,那个上下文长度是相对于大多数免费替代方案的真实优势
我将 Gemini Flash 作为我的备用模型。当 Kimi K2.5 达到速率限制时,Gemini 接上。

像这样添加到你的 OpenClaw 配置中:

{
  "models": {
    "providers": {
      "google": {
        "models": [
          { "id": "gemini-3-flash", "name": "Gemini 3 Flash" }
        ]
      }
    }
  }
}
你需要从 Google 的 AI Studio 获取 GEMINI_API_KEY。免费层 API 密钥大约两分钟就能生成。

最佳用例: 长对话、文档摘要、研究任务,以及作为主要免费模型达到每日上限时的可靠备用。

局限性: Google 的免费层可能会使用你的数据进行训练。对于副项目和学习,这可能没问题。对于专有代码或敏感客户工作,使用付费层或在本地运行。

4. OpenRouter 免费模型

OpenRouter 不是模型,而是一个网关,让你通过单个 API 密钥访问来自不同提供商的数十个模型。

  • 使它对 OpenClaw 有用的是 :free 后缀。将其附加到支持的模型,你就可以获得零成本推理。*
  • 可用的免费模型会随时间轮换,但通常都有不错的可用选择*
  • 你通过 OpenRouter 将 Kimi K2.5 配置为主模型,添加一个 Llama 模型作为第一个备用,Gemini 作为最后的备用

一个基本的免费设置如下:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "openrouter/meta-llama/llama-3.2-3b-instruct:free"
      }
    }
  }
}
OpenClaw 还有一个内置扫描器,检查当前 OpenRouter 上有哪些免费模型可用,并测试它们的工具调用和图像支持:
openclaw models scan

此命令按能力对可用的免费模型进行排名,让你交互式地选择主模型和备用模型。

它节省了你手动检查哪些免费模型符合 OpenClaw 工具调用要求的时间。

最佳用例: 想要最大灵活性并在免费模型之间自动故障转移的用户。也非常适合实验不同的模型,而不必每次都更改提供商配置。

局限性: OpenRouter 上的免费模型会变化。今天免费的模型明天可能不免费。回来检查并保持你的备用模型更新。

5. 通过 Ollama 的 Qwen 3.5

我到目前为止介绍的所有模型都依赖于别人的服务器。通过 Ollama 本地运行的 Qwen 3.5 依赖于你的硬件。

  • 我选择 Qwen 3.5 是因为阿里巴巴构建它时考虑到了代理工作流程。*
  • 它在工具调用、多步推理和代码生成方面比同尺寸的大多数开源模型做得更好。*
  • 9B 版本可以在大多数具有 16GB RAM 的现代笔记本电脑上运行。27B 版本需要 32GB+ 但在复杂任务上提供更好的结果。*
  • 如果你有 M 系列 Mac 或专用 GPU,体验很流畅。
Ollama 最近添加了 OpenClaw 的一键启动命令。
ollama launch openclaw --model qwen3.5

这一条命令会拉取模型、配置提供商,并将其连接到 OpenClaw。

如果你更喜欢手动控制,你仍然可以单独安装 Ollama,用 ollama pull qwen3.5 拉取模型,并自己连接提供商配置。但对大多数人来说,启动命令就足够了。

最佳用例: 隐私优先设置、离线工作、你不信任任何云处理的敏感数据,以及想要将成本尽可能接近零的开发者。

局限性: 你需要不错的硬件。9B 模型在 16GB RAM 上可以工作,但在复杂的的多步任务上会很吃力。

6、最终思考

经过数周测试,这是我最终采用的配置:

  • 主模型: Kimi K2.5 — 免费处理大多数日常任务
  • 备用 1: 通过 Ollama 本地运行的 Qwen 3.5 — 在速率限制时接上
  • 备用 2: Gemini Flash — 在 100 万 token 上下文的重度使用时非常理想
自从有多个免费选项后,我停止了在 Claude 模型上运行 OpenClaw。

原文链接: 5 Free AI Models I Use with OpenClaw (And Most People Ignore Them)

汇智网翻译整理,转载请标明出处