Career-Ops:求职专用智能体

最近我在 GitHub 上刷到一个很有意思的开源项目 —— career-ops,目前已经积累了超过 16k stars。

它不是那种简单的一键海投工具,而是真正尝试把整个求职流程变成一个结构化、可迭代、可优化的 AI Agent Pipeline。这点让我这个做工程的人特别有共鸣,所以我花时间仔细看了它的代码和设计,下面是我个人的客观拆解。

1、问题:求职本质上是一个低效的 Pipeline

我自己以前找工作时,流程基本是这样的:

  • 刷 LinkedIn、公司官网、各种招聘平台
  • 手动筛选 JD
  • 改简历、填申请表
  • 投递后用 Excel 或者 Notion 记录进度

问题不是做不到,而是效率极低:信息过载、决策主观、重复劳动多、反馈慢。Career Ops 的核心思路就是把这个流程工程化,让 AI 负责大部分的分析、筛选和材料准备,而我(人)保留最终的决策权(HITL - Human in the Loop)。

项目明确反对“海投”策略,强调“少投,但投得更准”。它会先给岗位打分,只建议我对高分岗位出手。

2、核心架构:一个标准的 Agent Pipeline

整个系统的流程我总结下来大致是:

  1. 输入岗位 URL 或 JD 文本
  2. 解析岗位 + 角色分类(archetype)
  3. 多维度评分(10 个维度,加权后给出 A-F 或数值分数)
  4. 输出:结构化报告(Markdown)、定制化的 PDF 简历、更新 Tracker

它主要基于 Claude Code(Anthropic 的 Claude 项目模式),通过 14 个模块化的 “skill modes”(scan、pdf、batch、apply、deep 等)来实现不同功能。

3、关键模块分析

3.1 评分系统(Scoring System)

这是我认为最有价值的部分。它从技能匹配、职级、薪资预期、公司背景、地理位置等 10 个维度对岗位进行结构化打分。

  • 我喜欢的点:把“要不要投”这个主观决策变成了可量化的判断。
  • 不足:权重和 prompt 逻辑主要靠 LLM 自己调优,容易带入 bias。目前项目里缺少详细的 prompt 示例和验证数据。

3.2 CV 自动生成

从我维护的一份 cv.md(单一事实来源)出发,根据具体 JD 注入关键词,生成 ATS 优化的 PDF(用 Playwright 渲染)。

这更像“编译”而不是从零生成,设计思路很优雅。

我的顾虑:生成质量高度依赖我输入素材的质量,AI 有时会 hallucinate 或写得不够自然;ATS 实际通过率还需要长期验证。

3.3 Portal Scanner(岗位抓取)

内置了 45+ 家公司的 career page,支持 Greenhouse、Lever、Ashby 等常见 ATS,使用 Playwright 做浏览器自动化。

  • 优点:能主动发现新岗位。
  • 缺点:反爬策略变化快,维护成本不低;初次搭建 Playwright 环境也比较麻烦。

3.4 Batch 处理与并行 Agent

支持一次性丢 10+ 个岗位进去,并行处理。这部分工程化做得不错。

3.5 Tracker + TUI Dashboard

所有数据统一进入 Markdown/TSV,项目还用 Go + Bubble Tea 做了一个终端可视化界面,支持过滤、排序和状态跟踪。

这个 TUI 是整个项目里“工程味”最浓的地方之一,用着还挺爽,但也增加了上手门槛(需要 Go 环境)。

3.6 Self-Editing 能力

最酷的一点:我可以直接用自然语言跟 Claude 说“把某某维度的权重调高”或“增加一个新的 archetype”,它就会直接修改配置文件。

  • 亮点:自定义非常方便。
  • 风险:LLM 修改配置容易出不一致或破坏性变更,我每次都必须人工 review。

4、实际使用效果

根据作者分享,他用这套系统:

  • 评估了 631 个岗位
  • 生成 354 份定制简历
  • 最终拿到了 Head of Applied AI 的职位

这些数据有参考意义,但毕竟是个案。项目目前还没有公开详细的面试转化率、拒信分析等数据,所以我还不能判断对普通人的普遍效果如何。

5、明显的局限与风险(我特别在意的地方)

  1. 强依赖 Claude:需要 Anthropic API Key,成本不低(作者用的是较高阶计划),速率限制也明显。如果换其他模型,需要大量重写 prompt。
  2. AI 固有缺陷:评分和简历可能出现 hallucination,长期记忆(Interview Story Bank)需要持续积累才能发挥作用。
  3. 上手门槛较高:配置 API、Playwright、Go 环境、准备高质量 cv.md,对纯小白不太友好。
  4. 合规与道德风险:自动化抓取和申请可能违反部分网站服务条款;AI 生成的内容必须严格人工审查,否则有诚信风险。
  5. 适用范围有限:目前主要针对英语/欧美科技岗位,对中文市场或非技术岗位的适配性未知。

6、值得借鉴的工程实践

  • Pipeline-First 的设计思路
  • 用 Markdown/YAML 做数据层,易读易改
  • 强制 Human in the Loop,避免 AI 完全失控
  • 模块化的 skill modes + self-editing 机制
  • CLI + TUI 的轻量交互方式

这些模式在我以后做个人 AI Agent 项目时,很值得参考。

7、结束语

对我来说,Career Ops 不是一个“傻瓜式找工作神器”,而是一个诚意十足的个人工作流重构案例。它把求职从随机劳动变成了可衡量、可优化的系统,核心价值在于显著提升决策质量,而不是简单提高投递数量。

它仍然是一个早期开源项目:功能强大,但维护负担较重,效果高度依赖使用者本人的工程能力和输入质量。

适合我这样的人:有工程背景、愿意花时间调优系统、主要找中高端科技/AI 岗位的朋友。
不推荐:想要零配置、海投、或在非英语市场求职的用户。

总之,这个仓库的源码值得认真读一遍,尤其是对 AI Agent 和个人自动化感兴趣的同学。


汇智网编辑整理,转载请标明出处