为什么AI公司最终都要自训模型

现在每个应用层公司都在问的问题不再是“我们如何使用 AI?”而是“我们如何抵抗商品化,为客户提供更好的结果?”

为什么AI公司最终都要自训模型
微信 ezpoda免费咨询:AI编程 | AI模型微调| AI私有化部署
AI模型价格对比 | AI工具导航 | ONNX模型库 | Tripo 3D | Meshy AI | ElevenLabs | KlingAI | ArtSpace | Phot.AI | InVideo

在过去的 5 年里,我每天从早到晚都在做同一件事:拿一个通用的 LLM,教它去做特定的事情。最初,这意味着教 GPT-2 做模运算。现在,这意味着教万亿参数以上的模型去完成有时需要数小时的任务。

2024 年是“包装器”(wrappers)的时代。Cursor 作为典型代表,通过包装大实验室的模型,超越了 GitHub Copilot,成为 AI 辅助编码的首选工具。随后在 2025 年,Cursor 推出了 Composer。其基础是开源的 Kimi,但真正的魔法来自于他们内部完全后训练(post-trained)的模型。他们这么做不是为了节省 API 调用费用,而是因为他们已经发现了市场尚未完全定价的东西:在 Cursor 中做好编码的奖励信号,就存在于 Cursor 内部,而不在其他任何地方

Cursor 是最显眼的例子,而现在这已成为整个应用层越来越普遍的策略:更贴近你的用户,从而理解你的模型何时有效,然后构建更好的模型和产品。这正是让你转动飞轮(flywheel)的方法。

这个模式现在已经高度一致,不可能是巧合。任何产品是长时域智能体循环(long-horizon agentic loop)的公司,都正在从大实验室的模型转向用他们自己交互数据训练的模型。Decagon、Abridge、OpenEvidence、Hippocratic、Intercom、Chroma、Pinterest、Cognition、Lovable、Notion、Harvey、Gamma、World Labs,以及所有前沿公司,都在开源权重基础上训练自己的模型。在 Baseten,我们帮助这一波公司训练他们的主要智能体,让他们摆脱前沿 API,转向专门化模型。

Sutton 的苦涩教训——通用数据规模胜过人类领域专业知识——在这里并不能拯救大实验室。标准的反驳是:泛化最终会胜过专门化,也就是说预训练规模会获胜,只要等待下一个基础模型就行了。这个论点适用于你针对固定目标扩展计算的情况。但大多数目标并不是固定的。

“在这个用户的代码仓库中做好代码补全”或者“为这位医生的患者群做好临床笔记”这样的目标,是不断移动的靶子。正确性是通过产品迭代发现的。任何在静态语料上进行的下一词预测都无法产生它。只有针对结果的 RL(接受 vs 拒绝的补全、真实工作流中成功 vs 失败的智能体轨迹)才能产生它。而这些结果只存在于产品实际运行的地方。这就是专门化胜过通用性的轴线,也是剩余前沿空间所在的轴线。

在过去一年里,实证案例已经无可辩驳:对于固定的能力预算,一个专门化的 OS 模型现在在分布内的智能体任务上 routinely 能匹敌或超越前沿模型,而且随着任务时域更长、工具使用依赖性更强,这种差距还会扩大。这与前沿的发展方向相同,但机制不同。我们通过接近一个数量级的更好单位经济性实现了这一点。

大实验室跟不上,原因在于组织结构。前沿实验室的组织方式是为许多客户服务一个模型。而专门化需要相反的方式,即为细分客户构建许多模型,这些模型与服务栈和客户的数据循环共同设计。让实验室擅长预训练的东西(集中式运行、单模型服务经济学、研究型实验室的组织结构),与让专门化业务成功的东西存在根本性张力。微调 API 只能是副业,因为它必须是副业。这是我和朋友在散步和吃饭时经常辩论的话题,但这是我看到的现实。我会指出 OpenAI 刚刚弃用了他们的微调 API 这一事实。

把专门化当作第一类业务,将意味着承认预训练规模不是现实世界价值的瓶颈约束,而这正是他们整个资本结构所依赖的论点。他们可以雇佣领域专家,但这没有帮助,因为让 OpenEvidence 或 Abridge 变得优秀的 98% 内容,并不是医学知识,而是他们在产品中构建的反馈循环。

这一波浪潮中的每一家公司都已认识到:在软件成本崩盘后唯一能存活的防御力,就是拥有一个用别人看不到的信号训练的模型。每个用户会话都会产生训练数据。每次训练运行都会产生更好的模型。每个更好的模型都会吸引更多用户和更多数据。飞轮在产品循环内部转动,而大实验室尽管规模庞大,却站在这个循环的外面。每一个产品都有极其详细的“好”的定义表面;公司现在关心模型的 UX,而这是训练时决定的,无法通过提示(prompt)来解决(例如工具调用的层级或搜索深度、工具调用的并行性等)。

现在每个应用层公司都在问的问题不再是“我们如何使用 AI?”而是“我们如何抵抗商品化,为客户提供更好的结果?”答案是:基于你每天服务的用户的独特理解的专门化模型。大实验室做不到,但你能做到。


原文链接:Why every serious AI company is training its own model

汇智网翻译整理,转载请标明出处