理解生成式AI的用户
我最近参与了一些关于为终端用户设计基于大语言模型(LLM)工具的有趣讨论,其中一个重要的产品设计问题是“人们对AI了解多少?”
我最近参与了一些关于为终端用户设计基于大语言模型(LLM)工具的有趣讨论,其中一个重要的产品设计问题是“人们对AI了解多少?”
这一点很重要,因为正如任何产品设计师都会告诉你的那样,你需要了解用户才能成功地为他们构建产品。想象一下,如果你在构建一个网站时假设所有访问者都精通中文,于是你用这种语言编写了网站,但后来发现你的用户都说西班牙语。就是这样,因为虽然你的网站可能很出色,但你已经基于一个致命的错误假设构建了它,从而显著降低了其成功的可能性。
因此,当我们为用户构建基于大语言模型(LLM)的工具时,我们必须退后一步,看看这些用户是如何理解大语言模型(LLM)的。例如:
- 他们可能根本不知道大语言模型(LLM)是如何工作的
- 他们可能没有意识到他们已经在使用的工具背后有大语言模型(LLM)
- 他们可能对大语言模型(LLM)的能力有不切实际的期望,因为他们的经验是与功能强大的代理有关的
- 他们可能对大语言模型(LLM)技术有不信任或敌意的感觉
- 他们可能根据特定的过去经验对大语言模型(LLM)所说的话有不同的信任或信心水平
- 他们可能期望确定性的结果,尽管大语言模型(LLM)不会提供这样的结果
用户研究是产品设计中极其重要的一部分,我认为在构建基于大语言模型(LLM)的工具时跳过这一步是一个真正的错误。我们不能假设我们知道我们的特定受众在过去如何体验大语言模型(LLM),我们尤其不能假设我们自己的经验代表了他们的。
1、用户画像
幸运的是,有一些关于这个主题的好研究可以帮助我们。一些用户观点的原型可以在印第安纳大学医学院的 Cassandra Jones-VanMieghem、Amanda Papandreou 和 Levi Dolan 开发的四人种框架中找到。
他们在医学背景下提出了这四个类别(但我认为它们具有普遍适用性):
无意识用户(不知道/不关心)
- 一个不真正思考AI且不认为AI与他们的生活相关的人会属于这个类别。他们自然对底层技术的理解有限,并且不太有兴趣了解更多。
回避型用户(AI是危险的)
- 这个用户对AI有总体负面的看法,会对解决方案持高度怀疑和不信任的态度。对于这个用户来说,任何AI产品都可能对品牌关系产生非常不利的影响。
AI热情用户(AI总是有益的)
- 这个用户对AI有很高的期望——他们对AI充满热情,但他们的期望可能是不现实的。那些期望AI接管所有琐事或能够准确回答任何问题的用户可能适合这里。
信息充分的AI用户(被赋予权力)
- 这个用户有现实的观点,很可能有较高的信息素养水平。他们可能会采用“信任但验证”的策略,即对大语言模型(LLM)的断言的引用和证据对他们来说很重要。正如作者所指出的,这个用户只在特定任务有用时才会使用AI。
基于这个框架,我认为过度乐观和过度悲观的观点往往都源于对技术知识的某种不足,但它们并不代表完全相同的用户。信息水平和情感(包括强度和定性性质)的结合共同创造了用户资料。我的解释与作者的建议有些不同,我认为热情用户是信息丰富的,因为实际上我认为对AI能力的不现实期望往往是由于缺乏知识或不平衡的信息消费。
这给了我们在设计新的大语言模型(LLM)解决方案时很多需要思考的内容。有时,产品开发者会陷入一个陷阱,即假设信息水平是唯一的轴线,而忘记对这项技术的情感社会差异很大,这可能对用户接收和体验这些产品有同样大的影响。
2、为什么会这样
值得花点时间思考这种广泛的用户资料以及情感的原因,尤其是情感方面。我们日常使用的许多其他技术并不会激发如此多的两极分化。大语言模型(LLM)和其他生成式AI对我们来说相对新颖,这当然是一个问题的一部分,但生成式AI有一些定性方面的特点,特别突出,可能会影响人们的反应。
Pinski and Benlian 在这个主题上有一些有趣的工作,指出生成式AI的关键特性会破坏人机交互研究人员对这些关系预期的方式——我强烈推荐阅读他们的文章。
2.1 非确定性
随着计算在过去几十年成为我们日常生活的一部分,我们能够依赖一定程度的可重复性。当你点击一个键或按下按钮时,计算机的响应基本上每次都是一样的。这带来了一种可靠的感觉,我们知道如果我们学习正确的模式来实现我们的目标,我们可以依靠这些模式保持一致。生成式AI打破了这一合同,因为输出的非确定性本质。普通用户在使用技术时很少有机会接触同一按键或请求返回意外且始终不同的结果的概念,这显然会破坏他们可能拥有的信任。非确定性当然有很好的理由,一旦你了解了这项技术,这只是另一个需要处理的技术特征,但在信息不充分的阶段,这可能会有问题。
2.2 不可知性
这其实就是另一个词,指“黑箱”。生成式AI背后的神经网络的性质是,即使我们直接与技术打交道的人也无法完全解释为什么一个模型“做它所做的”。我们无法汇总并解释每层网络中每个神经元的权重,因为这太复杂,变量太多。当然,有许多有用的可解释AI解决方案可以帮助我们理解影响单个预测的杠杆,但对这些技术工作原理的更广泛解释并不现实。这意味着我们必须接受某种程度的未知,这对科学家和好奇的普通人来说都很难接受。
2.3 自主性
推动生成式AI成为半自主代理的趋势似乎正在使我们让这些工具在人类用户的监督和控制下越来越少。在某些情况下,这可能非常有用,但也可能造成焦虑。鉴于我们已经知道这些工具是非确定性的,而且在广泛范围内不可解释,自主性可能感觉很危险。如果我们并不总是知道模型会做什么,而且我们并不完全理解它为什么这样做,那么一些用户可以说这不是一个安全的技术,允许它在没有监督的情况下运行是可以原谅的。我们一直在不断努力开发评估和测试策略,以试图防止不良行为,但一定数量的风险是不可避免的,就像任何概率技术一样。另一方面,生成式AI的一些自主性可能会导致用户完全不认识到AI在给定任务中的参与。它可能在幕后默默工作,用户可能对其存在毫无察觉。这是AI输出变得与人类有机创作材料难以区分的更大范围关注领域的一部分。
3、对产品意味着什么
当然,这并不意味着构建涉及生成式AI的产品和工具是不可能的。它意味着,正如我经常说的那样,我们应该仔细审视生成式AI是否适合我们面前的问题或任务,并确保我们考虑了风险以及可能的回报。这是第一步——确保AI是合适的选择,并且你愿意接受使用它所带来的风险。
之后,我建议产品设计师这样做:
- 进行严格的用户研究。了解上述用户资料在你的用户群中的分布情况,并计划你的产品将如何适应他们。如果你有大量回避型用户,请计划一个信息策略来促进采用,并考虑逐步推出以避免对用户群造成冲击。另一方面,如果你有很多热情用户,请确保清楚地说明你的工具将提供的功能边界,以免出现“你的AI真差”之类的反应。如果人们期望生成式AI带来神奇的效果,而你却无法提供,因为必须遵守重要的安全、安全和功能限制,那么这将对用户体验造成问题。
- 为你的用户设计。这听起来可能显而易见,但本质上我说的是你的用户研究应该深刻地影响不仅仅是你生成式AI产品的外观和感觉,还有它的实际构造和功能。你应该以基于证据的观点来看待工程任务,了解这个产品需要具备什么能力以及你的用户可能以哪些方式使用它。
- 优先教育。如我之前所述,无论用户是积极还是消极地进入,教育你的用户关于你所提供的解决方案都是重要的。有时我们假设人们会“明白”,可以跳过这一步,但这是一种错误。你必须现实地设定期望值,并预先回答可能来自怀疑者的疑问,以确保良好的用户体验。
- 不要强迫。最近我们发现,过去我们愉快使用的软件产品正在添加生成式AI功能并将其强制要求。我之前写过关于市场力量和AI行业模式如何导致这种情况,但这并没有减少其破坏性。你应该准备好一些用户,无论人数多么少,都希望拒绝使用生成式AI工具。这可能是因为批评性的态度,或安全法规,或只是缺乏兴趣,但尊重这一点是保护和维护你组织的良好声誉和与该用户关系的正确选择。如果你的解决方案是有用的、有价值的、经过充分测试的和良好沟通的,你可能会随着时间的推移增加该工具的采用率,但强迫人们使用不会有所帮助。
4、结束语
归根结底,这些教训对于各种技术产品设计工作都是很好的建议。然而,我想强调生成式AI在用户与技术互动方面带来的变化,以及它对我们期望的重大转变。因此,比以往任何时候都更重要的是,在将此类产品推向世界之前,我们要仔细审视用户及其起点。正如许多组织和公司正在痛苦地学习的那样,新产品是一个留下印象的机会,但这种印象可能和好一样坏。你有显著的机会给人留下深刻印象,但你也有可能破坏与用户的关系,摧毁他们对你的信任,并给自己带来严重的补救工作。所以,开始时要小心和有意识!祝你好运!
原文链接:Understanding the Generative AI User
汇智网翻译整理,转载请标明出处