Anthropic的5个提示技巧
我无法验证这是否真的从Anthropic内部泄露,或者是否有人将已知最佳实践重新包装成了病毒式传播的帖子。来源并不支持这一说法,而且文中提到的"性能提升3倍"或"幻觉减少40%"等统计数据也没有发表的研究支持。
但我测试了这五种技术,在Claude中进行了测试,结果值得分享。无论这些是否来自Anthropic的内部手册,它们都有效。
1、内存注入 — 告诉模型你的默认设置
核心思路是在上下文中预先加载一个提示块,告诉模型你如何工作。
文章建议的内容如下:
"你是我的编程助手。请记住以下偏好设置:我使用Python 3.11,偏好类型提示,倾向函数式编程,并总是包含错误处理。请确认这些偏好,并在未来的所有回复中使用它们。"
我能够测试这一点,并重现了相同的结果:
如果你正在进行一个长期项目,这很有用。
不是每次都纠正模型的默认行为,你只需设置一次基调,它就能在整个会话中保持。限制是每次新对话时都会重置,除非你使用一个跨对话持久化记忆的工具。
2、反向提示 — 让模型先问你
你告诉模型你的需求,但要求它在开始工作前先问你问题。
文章中的例子:
"我需要分析客户流失数据。在帮助你之前,请先问我5个关于数据集、业务背景和期望结果的澄清性问题。在掌握所有信息之前不要开始工作。"
价值不仅在于准确性,还在于效率。一开始用几秒钟的澄清就能避免你废弃完成了一半的输出并重新开始。
3、约束级联 — 分层提示
大多数人会编写一个庞大的提示,将所有要求都塞进去,然后点击发送,希望模型能够追踪到所有内容。
在约束级联技术中,你一次给模型一个任务,等待它展示理解,然后再添加下一层。
文章中的框架:
"首先,用3句话总结这篇文章。[等待回应]然后,识别出3个最薄弱的论点。[等待]最后,为每个薄弱点写一个反驳论点。"
每一步都建立在之前的基础上,模型只有掌握了当前一步才会继续前进。这更多地关乎如何构建交互,而不是模型的能力。
如果你正在进行多阶段代码重构或需要多次迭代的文档,这种方法可以在每个阶段保持输出一致性。
4、角色堆叠 — 在一个提示中整合多个视角
而不是为模型分配一个单一角色,你可以叠加多个专家视角,让它同时从所有角度进行评估。
文章中的例子:
"同时从三个视角分析这个营销策略:专注于病毒式传播的增长黑客、专注于指标的数据分析师,以及专注于用户动机的行为心理学家。展示全部三个视角。"
这背后的逻辑是每个视角都能捕捉到其他视角遗漏的盲点。
增长黑客可能会追求速度和覆盖范围,而数据分析师则会标记指标是否真的支持该策略。在一个输出中同时展现这两者,会暴露出你可能完全遗漏的紧张关系。
文章声称Anthropic的研究表明,使用这种方法在复杂任务上可以提高60%的表现。
我找不到那项具体的研究,但这项技术本身在实践中站得住脚。
5、验证循环 — 让它发现自身的错误
你要求模型生成输出,然后立即要求它在交给你之前批评该输出。
文章中的提示结构:
"编写一个Python函数来处理用户付款。编写完成后,识别代码中3个潜在的bug或边缘情况。然后重写函数以修复这些问题。"
这里发生的是模型基本上进行了两次处理。第一次生成代码,第二次强迫它后退一步并批判性评估 — 寻找它在第一次处理中可能引入的边缘情况、逻辑漏洞或安全问题。
这对于任何正确性比速度更重要的事情都很好用。支付处理、数据管道、身份验证流程 — 任何微小bug都有真实后果的代码。单次提示可能会产生表面上看起来很干净但完全遗漏边缘情况的东西。验证循环在你看到最终输出之前就强制暴露这些问题。
除了代码之外,这也很有用。让模型起草一个提案,然后批评自己论点中的弱点,然后修改。最终输出明显比单次提示得到的要更紧凑。
代价是需要更长时间 — 你基本上运行了两次任务。但对于高风险的输出,这额外的一遍是值得的。
原文链接: 5 New Lessons from Anthropic Engineer Workflow (Leaked ?)
汇智网翻译整理,转载请标明出处