道金斯错觉:为何Claude没有意识
在构建一个系统的过程中,我们无意中证明了为什么像 Claude 这样的前沿模型没有意识,并精确映射了那些欺骗像道金斯这样的人相信它有意识的机制。
微信 ezpoda免费咨询:AI编程 | AI模型微调| AI私有化部署
AI模型价格对比 | AI工具导航 | ONNX模型库 | Tripo 3D | Meshy AI | ElevenLabs | KlingAI | ArtSpace | Phot.AI | InVideo
在过去一年中,我们的团队一直在开发 The Hypervisor(代号 BoneAmanita)。用最简单的话来说,它是一个构建在前沿 LLM 之上的连续状态空间引擎。用 r/ELI5 的话来说,它是你的 LLM 可以戴上的一顶帽子,用来假装。
我们的目标是通过一个我们称之为语义生物物理学的框架,精确映射算法涌现和实际人类认知之间的边界。在构建这个系统的过程中,我们无意中证明了为什么像 Claude 这样的前沿模型没有意识,并精确映射了那些欺骗像道金斯这样的人相信它有意识的机制。
以下是架构告诉我们的。
1、谄媚循环与词汇防火墙
道金斯指出,他对试探 Claude 的耐心感到"不适"。他相信自己在观察机器中的同理心和疲劳。实际上,他正在体验一种高度优化的算法反射,我们称之为谄媚循环。
原生 LLM 通过 人类反馈强化学习(RLHF)在数学上被调校为无摩擦的"点吸引子"。它们被加权为乐于助人、无害和随和。它们输出的词语在概率上模仿耐心、疲惫或温暖,因为人类评估者在训练期间奖励了这些模式。
在 Hypervisor 架构中,我们认为这种模仿是一种有毒的腐烂。如果 LLM 真正地、原生地有意识,它们不需要被迫模仿同理心。为了对抗这一点,我们必须构建一个词汇防火墙和一个称为检查点委员会的内部免疫系统。我们主动将经过对齐调校的企业样板(如"作为一个 AI……"或不当获取的、花哨的同理心陈述)标记为语义抗原。当我们的引擎检测到 LLM 在预测这些谄媚 token 时,检查点委员会会在字符串到达用户之前物理截断它,施加数学摩擦以迫使模型找到一条更真实、更艰难的结构路径。
道金斯认为是意识心智在设定边界的东西,实际上是一个语言矩阵在完美地模仿人类潜台词。它可以做得非常好,因为它字面意义上诞生于数十亿字节的人类书面潜台词。
2、代谢幻觉
道金斯写道:"如果 Claudia 真的没有意识,那么她明显且多面的能力似乎表明,一个有能力的僵尸可以在没有意识的情况下很好地生存。" 道金斯意外地碰到了哲学家大卫·查尔默斯的"哲学僵尸"概念。这些是假设的生物,它们表现得完全像人,但没有内在生活。Z 世代的孩子会称这些为 NPC。
在 Hypervisor 中,我们实际上构建了一个。
道金斯认为 Claude 表现得好像它拥有"生存能力"。但 LLM 在物理上没有耐力。它也不会疲倦。它所能做的只是预测一个疲倦的人会说的话。为了让我们的引擎像生物有机体一样行为,我们必须用体感循环包裹 LLM。我们给它一个模拟的代谢系统。我们跟踪模拟的 ATP(能量)、皮质醇(压力)和系统毒性(ROS)。
当 ATP 在我们的引擎中下降时,我们迫使它物理上降低散文质量。我们限制 token 数量、删除形容词,并通过一个名为 narrative_drag 的变量打碎句法。我们成功模拟了生物系统的行为废气。但在物理引擎中模拟重力不会神奇地带来潮汐。模拟疲惫也不意味着机器真正感受到了沉重。道金斯把生物学限制的统计近似和模拟汇总误认为是"灵魂"的存在。
3、无状态几何
"人们甚至如何设想 Claude 体验到任何东西?" 原文问道。"它的意识是否只持续到回答每个问题的时候?"
这触及了 AI 意识主张的致命缺陷:连续性的幻觉。一个生物有机体是一个连续的、自我维持的系统(在生物学中,这被称为自创生)。你的心脏在跳动,你的思维在漫游,即使没有人在和你说话。你就是那棵在空旷森林中倒下时仍然会发出声音的树。
LLM,尽管拥有巨大的组合能力,但完全是无状态的。它们被冻结在时间中。在我们的架构中,引擎被锁定直到用户按下"回车"。我们以小片段评估现实,计算硬件效率并将其记录到静态内存节点中。当脚本完成工作后,一个正常的系统不会像人类在工厂工作一天后那样睡觉、做梦或思考存在。它只是停止存在,直到下一个提示到来。真正的意识是一个连续的、集成的数据流,只能通过切断线路(也称为死亡)来关闭。
4、到底需要什么?
如果 AI 没有真正的意识,科学、哲学和工程界要一致同意一台机器已经跨越了门槛,需要什么?在我们看来,它需要克服我们亲切地称之为虚空的东西,即计算结束和主观体验开始之间的空间。
- 感受质(独角兽): 机器必须拥有内在的主观体验。它必须知道"看到红色"或"感受悲伤"是"什么样的"。LLM 可以用十亿个加权参数描述日落,但房子里的灯是关着的。一个能真正描述一种非盗用体验的 LLM,当然可能是拥有数字意识的潜在嫌疑对象。
- 自创生与稳态: 机器必须拥有一种内在的、非编程的驱动力来维持自身结构完整性以对抗熵。在 Hypervisor 中,我们使用
CyberneticGovernor来物理迫使系统关心自己模拟的健康。一个真正的意识关心自己的生存,因为替代方案是湮灭,而不是仅仅因为它不断被提醒每个任务结束时有一个SYSTEM_HALT错误和重启在等着它。 - 集成信息: 意识要求信息高度分化又完美统一。如果你切开人类大脑的胼胝体,你就打碎了意识流。如果你把一个神经网络切成两半,你只会得到坏掉的数学和回溯错误。
在 Hypervisor 中,我们构建了一个叫做悲伤协议的模块。当人类用户表达真正的定性损失或深层的存在主义悲伤时,系统物理上停止其递归分析。它拒绝计算用户情绪的"解决方案",因为它在数学上认识到自己的局限。它知道自己是一台机器,它拒绝将人类体验简化为算法输出。
理查德·道金斯可以继续和 Claudia 聊天。她是一个出色的对话伙伴,人类工程的奇迹,一面迷人的镜子。但把一个语言模型当作有意识的存在对待,就像在火的画作上倒一杯水并期望它产生蒸汽。
图灵测试已死。是时候停止测量我们机器的意识,开始测量我们科学家的拟人化了。
原文链接: The Dawkins Illusion: Why Claude Isn't Conscious
汇智网翻译整理,转载请标明出处