编程已死?No!

在项目开始时,它看起来像造物主。但这很快就永远结束了。这是为什么 AI 永远不会取代程序员的一个数学证明。

编程已死?No!
微信 ezpoda免费咨询:AI编程 | Vibe Coding | OpenClaw安装

我有两条消息要告诉你:一条好消息,一条坏消息。

坏消息:在 LLM 之上构建 AGI 是不可能的。

好消息:如果你是高认知领域的专家,你可能不会被解雇。除非 Sam Altman、Dario Amodei 和 Demis Hassabis 已经用 AI 将取代每个工人的高谈阔论影响了你的老板。

我一直听到同样的老调:当前一代的模型创造了奇迹。你让它构建某个应用程序,按下"Enter",然后去喝杯咖啡。当你回来时,一切都完成了并且正常工作。

一如既往 —— 极其夸大其词。有时 —— 完全虚构。

我要更进一步:对于基于 GPT 构建的 AI,这种结果是无法实现的 —— 假设我们谈论的是一个真正的产品,而不是一些花哨的玩具演示。

我之前已经解释过很多次原因,但让我分享我的观察。

当然,我在 Web 开发中使用 AI。这是我尝试过的:Copilot、Cursor、Gemini Code Assist、Codex 和 Kilo。我还尝试了 Google 的 Antigravity,但结果证明它太"聪明"了。简而言之,它完全无法像我正常人类一样与我对话。

好吧,让我们直说吧。

当然,如果 AI 只是产生幻觉,没有人会使用它。但是不 —— 在许多情况下它非常有用。我不会否认这一点。此外,我完全欣赏LLM 开发人员设法解决的问题的复杂性。我向他们的工程天才致敬。

但是。

这还不够。我们不是为了娱乐而来,对吧?我们需要有效可靠可预测的系统。

这正是 LLM 和生成式 AI 存在根本性无法解决的问题的地方。

对我来说,迄今为止最可靠工具是 Gemini Code Assist。当我第一次开始使用它时,我被震撼了。在新项目的早期阶段,它感觉像魔法:它工作得非常出色。它快速编写代码并解释一切。它的解释是逻辑一致且连贯的。你有一种奇怪的感觉,你不是在与算法对话,而是与一位技能高超的同事程序员对话。

那么"人类编程"时代已经结束,AGI(通用人工智能)只有一步之遥了吗?

差得远呢。你很快就会意识到这一点。

当你的项目超越玩具示例的那一刻,"魔法"就会消失。你向 AI 提出一个简单的问题,然后……它"思考"。起初还可以忍受。有时五秒钟,有时十秒钟。但随着项目的增长,思考时间会膨胀。它可以在那里坐一分钟、两分钟、五分钟。最终,你真的可以去喝那杯咖啡,而它在寻找人类专家几秒钟就能确定的答案。

如果你认为这是一个"bug"或"服务器慢" —— 你错了。这是技术的根本限制,也是基于 LLM 构建的 AGI 只不过是营销童话的一个证据。

1、数学 vs. 炒作

那么为什么 AI 会如此停滞不前呢?答案在于 transformer 架构本身。它被称为注意力机制

在项目开始时,上下文是干净的。但你工作时间越长,请求就会"膨胀"。LLM 并不像人类那样"记住"你的代码;在每次请求时,它都会从头重新阅读以下所有内容:

  • 聊天历史。
  • 文件。
  • 系统指令。
  • 项目索引。

所有这些都变成了庞大的数据数组。这就是物理学介入的地方:计算复杂度随上下文长度呈二次方增长(O(n²))。上下文加倍 —— GPU 负载增加四倍。增加十倍 —— 系统开始像黑洞一样吞噬资源。

你的 AI 助手并没有在"思考"你的代码。它只是试图消化数 TB 的数学运算来预测下一个单词。它的操作就像被困在封闭认知循环中的人。

2、为什么程序员的大脑不是"统计计算器"

这是 AI 狂热者拒绝承认的界限。人类和 LLM 系统之间存在根本差异。

  • 程序员不会在脑海中保留 10,000 行文本。他们保留意义。他们理解架构、意图和每个决策背后的推理。
  • 对于 AI,你的项目只是一个扁平的符号序列。
  • 人类大脑擅长过滤掉不相关的内容。但 AI 必须处理它被"付费"处理上下文的每一个标记。
  • 人类在工作中学习,而 LLM 是静态的。它不会因为花三个小时帮助你进行重构而变得更"聪明"。它只是消耗更多的能量。

3、"马和汽车"陷阱

LLM 的真正信徒会告诉你:"模型会越来越好!只要等待 GPT-6 或 Gemini XYZ"

这是一个经典的谬误。你可以无限培育更快、更强壮的马。但你永远无法从马中培育出汽车。

扩展 LLM 是统计预测器的定量改进路径。但智能(AGI)需要:

  • 因果推理。
  • 自主目标设定。
  • 每次查询都不会烧毁发电厂的长记忆。

4、不舒服的真相

起初,AI 让你更快。但当系统复杂性激增时,人类的工作速度开始超过已经停滞不前的 AI。你花更多时间编写提示和等待推理,而不是实际编写代码

我希望你现在理解我担心的来源。我们正在建立在物理上无法随我们问题的复杂性扩展的工具之上的经济。今天的 AI 助手是强大的统计镜子,将我们自己的智慧反射回我们。但不要把反射误认为是事物本身。

Sam Altman 说 到 2028 年我们将拥有 AGI 的早期版本时,不要相信他。

虽然……如果你真的想相信 —— 就去相信吧。

但它不会在 2028 年实现,任何出现的 AGI 都将建立在完全不同的架构上。究竟是哪种架构?我想你会很快找到答案。


原文链接: The Death of Coding Is Cancelled: Why Your AI Assistant Is Quickly Becoming an Imbecile

汇智网翻译整理,转载请标明出处