警告:AI 去技能化
我们都听说过 AI 脑残、AI 精神病和 AI 垃圾。如果你花时间上网,很明显社交媒体和 AI 的组合对你的神经元并不十分健康。但尽管可能更有害,却很少谈论工作中使用 AI 的心理影响。谢天谢地,这个问题现在开始成为头条新闻。但大多数出版物都没有充分解释为什么在工作中使用 AI 可能如此有害,并且完全没有提到从一开始我们就一直被警告这些问题。欢迎来到 AI 去技能化的世界。
Business Insider 最近发表了其中一篇报道。这篇文章介绍了 Josh Anderson,一位经验丰富的软件顾问,他分享了他开发新应用 Road Trip Ninja 的经历。他进行了一个小实验,并试图让 AI 编写整个代码库。起初,一切都很好,但随着代码膨胀超过 100,000 行,与聊天机器人的交互从几分钟增加到几个小时,Anderson 在进展停滞不前时变得越来越沮丧。
当然,这只是一个实验;Anderson 可以在任何时候介入,自己编写应用程序,即使整理如此大量几乎没有代码注释的 AI 生成代码是极其困难的。但 Anderson 的经历突出显示了一个明显的问题。你看,甚至 Anthropic 也发现 使用生成式 AI 编码工具会显著降低编码员的调试和代码理解技能。那么,随着软件行业的方向发展,编码员实际上能介入并完成 AI 无法完成的事情吗?本文解释了 Anderson 的经历“引发了关于 AI 对技能保留和发展真正影响的问题”,并且它“突出了工作场所研究人员更广泛的担忧:在一个越来越依赖 AI 的环境中去技能化的风险。”
鉴于这是一个全行业的问题,这篇文章不仅仅关注 Josh 的实验。它还强调,开发者承认在 Claude 最近的一次故障期间发现任务变得更加困难,这使得他们的 AI 助手无用,并表明了一种“危险的依赖”。
这个问题有各种名称和类似的解释,文章只是快速浏览了一下。
例如,Josh Nosta 称其为“AI 回弹效应”。 他将其描述为 AI 驱动的生产力增长掩盖了技能水平的下降。正如他所说:
“当自动化处理细节时,情境意识就会迟钝。在那种背景下,我们扫描减少,预测减少,微调减少。简单地说,我们赖以驾驭复杂情况的心智模型缩小了,因为系统正在做我们曾经为自己做的事情。随着时间推移,这不只不仅仅是暂停一项技能;它更类似于侵蚀。当技术离开时,技能不会简单地回到基准。它可能会更弱地回来。”
换句话说,技能和专业知识是需要训练才能保持或维持的肌肉,否则它们会丧失。所以,用 AI 自动做出这些决定可能导致我们失去关键技能。
Dr. Rebecca Hinds 称这为“认知债务”。正如我之前的文章 所报道的,Dr. Hinds 同样担心关键技能的萎缩。她发现如果 AI 被用作自动完成任务、扩大工作范围或减少员工规模的捷径,员工将失去关键专业知识和技能,因为他们没有被维持,并达到危险的虚假自信水平,增加了错过错误的可能性。Dr. Hinds 建议 AI 应该与专家一起使用,为他们提供选项,同时确保专家仍然是做出决定的人。可悲的是,这并不是 AI 被使用的方式,而且许多人仍然质疑这样使用 AI 是否真的能提高生产力。
通俗地说,这个问题被称为 AI 去技能化。这通常被理解为当 AI 用于自动化或增强员工时,它承担了大部分认知负荷。但正是这些负荷建立和维持了这些员工的关键技能。因此,以这种方式部署 AI 本质上会侵蚀劳动力中的关键技能。
这不是一个假设。我们已经知道这个问题一段时间了。
例如,有来自 JYX 的 2023 年研究,分析了会计公司的自动化如何直接导致技能萎缩和批判性思维技能的显著下降(自满),这对业务产生了负面影响。或者是由 Carney Mellon 支持的 2025 年初研究,调查了 319 名“知识工作者”,发现生成式 AI 自动化和增强导致了严重的关键技能和批判性思维丧失。或者这项更近期的研究,发现医学中的生成式 AI 增强和自动化正在侵蚀医生的关键技能,意味着如果 AI 被移除,表现将低于他们之前没有 AI 的基准?
如果你认为所有这些意味着 AI 仍然可以用于自动化或增强低技能工作,请阅读我之前的文章 找出为什么这根本不是真的。
好吧,但为什么这些员工失去他们的技能和专业知识很重要?以医生为例。这项研究 发现生成式 AI 增强实际上提高了医生的效率。那么,如果这些技能不再需要,它们的消失重要吗?
嗯,是的,这很重要,因为这些专业知识和技能仍然非常需要,而且还没有被真正取代。
首先,你不能依赖 AI。以之前的 Claude 为例。这些 AI 有时会经历故障。期间表现或能力的显著下降可能是不可接受的。想象一下,如果医生因为 ChatGPT 离线而难以诊断患者!但这些 AI 也经常更新或调整其功能,这可能会干扰它们融入工作环境的方式,导致工人需要使用他们的关键技能来应对这种情况。
其次,还有训练这些 AI 的问题。为了在这些领域运营,它们需要不断接受大量详细数据的训练,以确保模型尽可能准确和最新。这些skilled专家提供这些数据,但如果他们正在失去技能,这些数据将来自何处?劳动力去技能化可能会使这些 AI 明显变得更差。
我们也不要忘记这些 AI 公司不盈利,可能在不太遥远的将来破产消失。我们真的不应该让自己依赖它们。
但我们似乎也忘记了 AI 不是完整的解决方案,而且 AI 增强并不意味着这些技能不需要。我们从 Josh Anderson 那里清楚地看到了这一点。Anderson 必须付出指数级更多的努力让 AI 完成任务,因为它无法自行完成。它真的需要有人介入并独立完成工作,这需要理解代码、遵循其逻辑、调试问题、正确连接各个部分并使整个系统高效的每一项编码技能。换句话说,去技能化可能完全不会被注意到,直到这些技能需要完成关键任务的那一天,而那时却无法完成。
这在亚马逊最近的故障期间很明显。我在我之前的文章 中报道了这个话题,但亚马逊解雇了大量工程师,并有效地试图通过用 AI 增强他们留下的工程师来取代他们。然而,事实是这些被解雇的工程师中的许多人非常擅长预防和解决故障,而这种专业知识在剩余团队中缺乏。这造成了巨大、频繁且极其昂贵的故障浪潮。谁会想到?
哦,所有这些尝试都可能是徒劳的。记得之前的 Anthropic 研究 吗?它发现使用 AI 编码工具的生产力收益“未能达到统计显著性”。所以,至少在某些行业,没有可衡量的回报来抵消去技能化的巨大负面影响。这是一种双输的情况。生成式 AI 编码工具更昂贵,但它们未能提供生产力的提升,同时导致编码员快速失去仍然需要的关键技能…… 听起来对我来说是一笔糟糕的交易。
但这真的是一个全行业的问题吗?
好吧,对于开发者来说可能可能是。我们讨论的一切可以解释 METR 的最新发现。他们之前的 2025 年调查显示,AI 编码工具让 expert 编码员减速 20%,因为纠正 AI 所花费的时间比使用 AI 节省的时间更多。然而,由于太少编码员愿意在没有生成式 AI 助手的情况下工作,2026 年调查被认为是“不可靠的”。为什么?正如 Anthropic 发现的那样,这些编码员使用 AI 并没有获得显著的生产力收益。如果大部分行业经历了 AI 去技能化,这可以解释为什么。许多这些编码员现在可能缺乏在没有 AI 帮助的情况下编码的技能,所以不愿意这样做。
这里还有一个次要问题。大约 84% 的编码员使用生成式 AI 编码助手。这意味着像 METR 这样的调查可能难以找到没有 AI 去技能化且能够独立良好编码的编码员对照组。换句话说,这个全行业的去技能化问题可能会歪曲他们未来的研究。
这一切意味着什么?好吧,没有严重的限制,AI 是一种技能和专业知识炸弹。如果它在一些小的、孤立的情况下以这种方式部署,那将是一个问题。但 AI 正在整个部门和行业中草率部署,因此,它威胁要侵蚀我们的集体技能和能力。这是一个影响我们所有人的主要问题。我们如何解决这个问题是另一天的对话。AI 监管、扩大工人权利和企业重组只是几个可能的选择。但就目前而言,我只是感激这个问题正在成为头条新闻——尽管它应该得到更多、更多的报道。
原文链接: AI Deskilling: We Warned You
汇智网翻译整理,版权归作者所有,转载需标明出处