编程之死是一种错觉

许多开发者在将 AI 集成到工作流时失败——随后宣称这些工具"毫无用处"——的主要原因在于,他们把 LLM 当作魔法神灯。他们打开一个聊天窗口,期望单个模型提示能够在工作记忆中保存、处理并无误地操作整个企业软件架构。

数据也证实了这一点。Cursor 最近的一项研究分析了数万名开发者,发现了一些反直觉的事实: 资深工程师每增加一个标准差的经验,就会多接受 6% 的 AI 生成代码。不是更少,而是更多。那些深刻理解系统的开发者并不会被 AI 威胁——恰恰相反,他们是从中获得最多价值的人。与此同时,经验较少的开发者与工具搏斗数小时,对产生的幻觉逻辑感到沮丧,然后得出结论认为 AI 编程被过度炒作。

差距不在于智力。而在于知道该要求什么。

但底层的数学逻辑也完全毫不留情。标准 Transformer 架构中的注意力机制运行在二次计算复杂度上——O(n²)。随着你的代码库、聊天历史和系统指令的增长,"上下文窗口"会呈指数级膨胀。模型不仅仅是在读取你的代码;它在执行太字节的矩阵乘法,将每个标记与其他每个标记交叉引用。上下文越长,AI 就会越慢地爬行,遭受"大海捞针"问题的困扰,产生逻辑幻觉,最终在自己的重量下崩溃。

解决方案不是坐等一个奇迹般的、全知的 AGI 来拯救我们。解决方案是对 AI 本身应用严格的软件工程原则

1、编排胜于全知

没有一个人类程序员能够在其生物工作记忆中掌握整个 Linux 内核或 AWS 后端。我们依赖模块化。我们也不应该要求 LLM 全知。

资深工程师的日常工作正在从编写函数转变为将系统架构分解为微问题,然后编排高度专业化的 AI 智能体来解决它们。你有一个智能体充当数据库架构师,另一个编写前端组件,还有一个"管理器智能体"验证它们之间的 API 契约。

这正是世界上最有成就的工程师们已经在做的事情。Rails 的创建者 DHH 公开承认,AI 智能体现在"完全能够为现实世界代码库做出生产级贡献"。Redis 的创建者 Antirez 让 Claude Code 在 20 分钟内重现了他数周的工作——然后让一个不同的 AI 模型在发布前审查它。甚至 Linus Torvalds 也在使用 AI 为他的音频项目编写 Python 可视化工具。

这些不是在玩玩具的初级开发者。这些是基础架构的架构师,他们把 AI 视为其本质:一个强大的但有界限的工具,需要专家级的编排。

"保存状态"技巧

当上下文窗口不可避免地被历史噪声和失败的迭代所饱和时,不要强行推动。把它当作内存泄漏来处理。在会话中断之前,你要求 AI 生成一个高密度的、语义化的文档摘要,总结当前的架构状态——本质上是一个有损压缩算法。然后,你打开一个全新的聊天会话并将该摘要输入其中。你正在对 LLM 的短期记忆执行手动垃圾回收,完全绕过 O(n²) 瓶颈。

2、COBOL 谬误与偏执测试

生成式 AI 的批评者喜欢争辩说,LLM 编写的代码"看起来"语法正确,但隐藏着深层的、阴险的技术债务,并且根本上缺乏业务逻辑上下文。

让我们残酷地诚实一点: 人类几十年来一直在做完全相同的事情。科技行业由 50 年前的 COBOL 和未记录的遗留代码支撑,没人敢触碰。我们把这些遗留系统视为未爆炸的弹药。这些代码可能就是由一个训练数据集永久丢失的外星 AI 编写的。问题不在于机器;问题在于缺乏文档和测试覆盖。

今天,AI 完全消除了编写标准样板代码所需的时间。这种新获得的速度使我们在玩闹和工程之间划定了一条坚定的、不容妥协的界限。

原型

如果你需要快速验证一个想法,你可以让 AI 在几次混乱的迭代中快速编写原型。这是可丢弃代码,旨在测试假设。

产品

要真正构建一个健壮的系统,你不是从代码开始。你要求 AI 生成架构模式、数据流图和接口契约。这正是人类推理介入分析微服务交互、安全缺陷和规模瓶颈的地方,甚至在生成一行逻辑之前。

偏执测试:AI 对抗 AI 循环

在输入样板代码上节省的时间必须积极地重新投资于大规模的、偏执的测试套件。以下是有效做到这一点的研发秘密:你强迫 AI 在一个完全不同的聊天会话(甚至使用不同的基础模型)中编写测试,而不是在生成源代码的那个会话中。

如果同一个智能体编写两者,它将遭受确认偏差,编写专门设计来通过其自身有缺陷逻辑的测试。通过让"制造者 AI"与"破坏者 AI"对抗,你创建了一个无情的、自我纠正的循环,由人类架构师监督。

这正是 antirez 对 Redis 所做的:用一个模型生成,用另一个模型审查。这不是黑客手段——这是一个纪律严明的工程模式。

3、硬件护城河:为什么混合 AI 是唯一的出路

有很多浪漫的、乐观的言论关于开源 AI 民主化未来并从科技巨头垄断中拯救世界。但在战壕中,真正的护城河不是算法或权重;它是物理硅。最终障碍是"组件泄漏"——访问高带宽 VRAM、企业 GPU、冷却基础设施和纯粹的功耗瓦特。

如果你在现实世界中进行研发,混合架构是平衡隐私、成本和能力的唯一务实选择。

本地/边缘用于确定性专家

对于解决复杂的、具体的问题(如实时计算机视觉管道),紧凑的、高度专业化的开源模型(如 DETR 变体或 YOLO)是无敌的。你可以在相对实惠的公司硬件上本地运行微调和推理。这保持延迟最小,并确保你的专有视觉数据永远不会离开你的内部网络。

云 API 用于重度编排

想象一家小型科技公司购买了一台配备双 RTX 6000 Ada GPU 的高端工作站,提供近 100GB 的 VRAM。感觉很强大,直到你尝试运行 80B 参数的 LLM 来执行高级编码任务。由大量代码上下文和文档处理生成的 KV Cache(键值缓存)将瞬间饱和那昂贵的内存,使你的令牌生成速度降至无用的爬行。

对于抽象推理、架构规划和跨多个文件的重度重构,订阅基于云端的前沿模型(如 GitHub Copilot、Claude 或 GPT-5)不是奢侈品或投降——它是基本的基础设施必要性。你从科技巨头那里租用认知繁重工作,并将专业化执行保持在本地。

4、手动语法是新的拉丁语(而编排是活的语言)

为了维持这个新的人类-AI 生态系统,我们的教育管道需要进行激进的、立即的改革。哀悼由主要手动语法输入组成的初级开发者角色的消失是毫无意义的。公司不会因为善意而人工雇佣初级开发者来编写样板代码,抱怨也不会改变资本主义激励。

我们经常听到这个比喻:"编程是新的拉丁语",暗示它正在成为一门死语言。 这只对了一半。手动语法是新的拉丁语;算法架构是活的语言。

我们应该像古典教育仍然教授拉丁语一样,在小学教孩子们编码的严格规则。我们教拉丁语不是为了让孩子们在杂货店说它;我们教它是因为它严格的语法结构从根本上为逻辑思维连接发育中的大脑。

如果孩子们进入大学时已经将计算逻辑融入血液,教授们可以停止浪费前两年在 for 循环和简单的 CRUD 应用程序上。但这并不意味着技术技能已经消亡——它们只是被抽象了。

委托差距

这是科技行业一直不愿面对的一个真相:大多数开发者从未学会委托。

传统的职业阶梯告诉你,变得更好意味着写更多的代码,更快,漏洞更少。初级到中级到资深——这都是关于个人能力。但从资深到首席工程师的飞跃几乎与编写更好的代码无关。它关于委托和编排:将复杂问题分解为清晰的工作单元,交给他人,评估输出,并知道何时足够好以及何时需要再次通过。

历史上,只有大约五十分之一的开发者在这一级别运作。其余的从未需要过。

AI 在一夜之间改变了数学。突然间,每个开发者都可以访问一个不知疲倦的、廉价的、快速的执行者,可以处理繁重工作——但前提是你能够清楚地解释你想要什么,设置正确的约束,并批判性地评估结果。这些不是"提示工程"技能。它们是人员技能、领导技能、系统思维技能——你需要管理人类开发者团队的相同技能。

Cursor 的研究直接证实了这一点:资深工程师不仅更多地使用 AI 智能体,他们还不同地使用它们。他们编写具有更紧规范的高信噪比提示。他们将工作分解为智能体兼容的单元。他们审查得更快,因为他们有更强的模式识别。他们在生成代码之前规划。

擅长 AI 辅助工程,从根本上说,就是擅长管理。

大学必须成为编排训练营。我们应该教 20 岁的年轻人高级系统设计、如何调试 AI 智能体群、如何编写坚如磐石的 API 契约以及如何治理 AI 驱动的 CI/CD 管道。但同样重要的是——这是大多数计算机科学课程完全忽略的部分——我们必须教他们**沟通、委托和评估。**我们必须训练他们成为高度复杂管弦乐队的指挥,而不仅仅是手动打字员。

5、后匮乏时代权力斗争

最后,我们必须对这场技术革命的社会经济时间表保持智力诚实。我们目前正在转向"人类编排者"阶段,但资本主义机器纯粹为极端效率而优化。如果 AI 智能体群最终能够更快、更便宜地执行架构工作,人类齿轮将被替换。

许多加速主义者将这一时间表压缩为一个整洁的、确定性的乌托邦叙事:极端自动化消除了工资,这不可避免地迫使政府重税科技巨头,这自然导致全民基本收入(UBI)和人类解放。

这是一个巨大的、危险的修辞飞跃。它忽略了政治权力动态的残酷现实。

从大规模自动化到 UBI 资助的后匮乏社会的转变不是物理学自然规律;它将是一场前所未有的地缘政治冲突。当科技巨头自己拥有和控制着地球的关键认知和物理基础设施时,究竟谁来征税谁,使用什么筹码?

封闭的资本主义循环中有一个致命的 bug:如果自动化消除了工资,它就消除了消费者基础。但这个 bug 的解决方案不保证是 UBI。如果没有激进的、协调的国家干预,默认结果将是技术封建主义——一个封闭的系统,超精英在彼此之间交易计算、能源和知识产权,而大众仅仅被经济上视为无关紧要。

不舒服的真相是,那些最敌视 AI 工具的开发者往往对威胁的看法没有错——他们只是对威胁来自哪里错了。危险不在于 AI 本身。危险在于一个政治经济,它将自动化的生产力收益集中在越来越少的人手中,而构建底层技术的劳动力却被悄悄抛弃。

最终目标不是一个由仁慈 AI 资助的有保证的海滩假期。它是一场逼近的斗争,以确保自动化数字劳动产生的财富在结构上重新分配。停止哀悼旧的编码方式;工程问题大部分已经解决。真正的挑战是弄清楚如何设计接下来的社会。


原文链接: The Death of Coding is an Illusion: A Field Guide to the AI Orchestration Era

汇智网翻译整理,转载请标明出处