我用本地Gemma 4替换了Codex
开发人员使用人工智能的方式正在悄然改变。
微信 ezpoda免费咨询:AI编程 | AI模型微调| AI私有化部署
AI模型价格对比 | AI工具导航 | ONNX模型库 | Tripo 3D | Meshy AI | ElevenLabs | KlingAI | ArtSpace | Phot.AI | InVideo
过去几年,默认的工作流程是这样的:
- 打开编辑器
- 连接云端人工智能(Copilot、Codex、Claude)
- 发送代码 → 等待响应
这很有效。但它有取舍:
- API成本
- 延迟
- 隐私问题
- 控制有限
这就是我决定做出改变的原因。
1、寻找替代方案
几个月前,我开始尝试本地运行的人工智能编码模型。
我的目标很明确:
- 保持代码私密
- 减少延迟
- 降低API成本
- 获得完全控制
输入:Gemma 4 + Ollama。
Gemma 4是Google最新的开放模型。Ollama是在本地运行大型语言模型的工具。
它们的组合改变了我的开发流程。
2、为什么选择Gemma 4?

Gemma 4有几个关键优势:
1. 完全本地运行
你的代码永远不需要离开你的机器。隐私得到保证。
2. 免费使用
没有API调用成本。一旦模型下载,你可以无限使用。
3. 快速响应
本地模型意味着零网络延迟。
4. 完全控制
你选择何时更新模型或更改配置。
3、入门设置
步骤1:安装Ollama
首先,安装Ollama工具:
curl -fsSL https://ollama.com/install.sh | sh
这将在你的机器上设置Ollama。
步骤2:下载Gemma 4
安装Ollama后,获取Gemma 4模型:
ollama pull gemma:2b
或者对于更强大的版本:
ollama pull gemma:7b
根据你的硬件选择。2b版本可以在大多数笔记本电脑上运行。7b版本需要更多资源。
步骤3:测试模型
运行一下命令确保它工作:
ollama run gemma:2b
现在你可以和它聊天了。
4、构建你的编码代理
现在有趣的部分开始了。
你需要的不只是一个聊天机器人。你需要一个可以帮你编码的代理。
这是我的设置:
工具1:代码编辑器
使用VS Code或你喜欢的编辑器。
工具2:Ollama后端
Gemma 4通过Ollama运行。
工具3:Claude Code(可选)
如果你想增强功能,Claude Code可以作为补充。
5、我的实际工作流程
这是我的设置:
1. 分析需求
我告诉Gemma我需要什么。例如:
"创建一个Express服务器,监听3000端口,返回Hello World"
2. 生成代码
Gemma生成代码。我检查并修改。
3. 自动补全
对于简单任务,Copilot风格的补全仍然有效。
4. 调试帮助
当事情不工作,我让Gemma分析错误。
6、性能对比
让我比较一下我的设置:

| 方面 | 云端AI | 本地Gemma |
|---|---|---|
| 延迟 | 2-5秒 | 0.5-1秒 |
| 隐私 | 差 | 优 |
| 控制 | 有限 | 完全 |
| 成本 | 订阅/月 | 一次性 |
本地设置在我的日常任务上甚至更快。
7、处理复杂任务
对于复杂任务,我使用分层方法:
简单任务:直接使用Gemma
- 函数创建
- 简单调试
- 代码补全
复杂任务:云端AI
- 架构决策
- 大规模重构
- 高级推理
这给了我两全其美。
8、实际示例
让我展示一个真实的例子。
任务:创建一个Express服务器
我给Gemma的提示:
创建一个简单的Express服务器,监听3000端口。
当访问根路径时,返回"Hello World from the Express Server!"
Gemma的响应(经过本地运行后):
const express = require('express');
const app = express();
const port = 3000;
app.get('/', (req, res) => {
res.send('Hello World from the Express Server!');
});
app.listen(port, () => {
console.log(`Express server is running at http://localhost:${port}`);
});
9、部署它
代码很直接:
初始化项目:
npm init -y
npm install express
保存文件:
将代码保存为server.js。
运行服务器:
node server.js
测试服务器:
打开你的浏览器或使用curl访问服务器:
导航到:http://localhost:3000
你会看到响应:Hello World from the Express Server!
10、结束语
完全替换Codex? 还不是。
但替换工作流程的重要部分? 绝对是。
这个实验显示的很简单:
你不再需要完全依赖云端人工智能来构建真正的软件。
使用Gemma 4和Ollama,你现在可以:
- 本地运行人工智能模型
- 构建和理解代码
- 创建真正的开发工作流程
- 保持对环境的完全控制
所有这一切都不需要向外部API发送一行代码。
原文链接: I Replaced Codex with Gemma 4 + Ollama — Here’s My Local AI Coding Agent
汇智网翻译整理,转载请标明出处