因此,你为 AI 功能或应用程序提出了一个用例,用业务案例为它辩护,并获得了批准。 太棒了! 现在做什么? 嗯,现在你的利益干系人已经准备好看到一些东西了。
规划使用基于生成 AI 的功能构建应用程序时,请务必考虑此处提供的提示和指南来创建所需的用户体验(UX)。 了解这些关键原则有助于确保你正在构建一个有吸引力的有效应用程序,以最好地支持用户的需求。
以下指南将指导你完成为生成式 AI 应用程序开发 UX 时要考虑的注意事项,并重点介绍生成自定义 copilot 体验的注意事项。
本文旨在帮助你:
- 探索 UX 框架选项,并选择最适合用例的方法。
- 了解开发 copilot 的三个基本原则,以及人类-AI 交互指南。
- 了解如何通过强大的输入和输出设计实现协作 UX
以下指南将指导你完成为生成式 AI 应用程序开发 UX 时要考虑的注意事项,并重点介绍生成自定义 copilot 体验的注意事项。
这一领域非常变化,有很多东西要学习,所以我们提供了用于更深入潜水的关键资源。 Microsoft负责任的 AI 原则 和 HAX (HumanAI Experience) 工具包 为本文背后的研究和真实体验提供了一些背景。
完成作业的正确焦点
以下指南将指导你完成为生成式 AI 应用程序开发 UX 时要考虑的注意事项,并重点介绍生成自定义 copilot 体验的注意事项。
UX 需要考虑三种框架变体:
- 整个知识库焦点的沉浸式
- 辅助应用内焦点
- 嵌入单个实体焦点
让我们更详细地探讨其中每个框架
整个知识库的沉浸式焦点
遵循的一条好规则是任务越重要,需要房地产就越重要。
沉浸式环境通过利用整个画布显示相关信息来提供完全集中的体验,从而为用户提供更深入的见解并减少用户的干扰。 此级别的焦点非常适合希望显示与特定数据源相关的信息的应用程序。 其中的示例包括类似于 Microsoft Project 索菲亚的 AI 生成的仪表板,或Microsoft Copilot for Security 指导用户完成全面过程的方式。 在沉浸式空间中,复杂的数据或信息更易于用户理解和分析。
应用内体验的辅助焦点
通过集成 copilot 作为扩展现有功能的助手,使用户能够从他们已工作的应用程序(如 Microsoft Teams、Power BI 或你自己的应用)访问 AI 提供支持的帮助。
通过使用应用内焦点,用户可以避免在工具或界面之间切换。 此框架允许 copilot 无缝集成到用户的工作流中,提供相关的建议、信息和按需支持,而不会中断其当前任务。 此视图提供对工具、信息和帮助的持续访问,而不会妨碍主要内容区域。 对于需要持续支持或监视的应用程序,它特别有效。
单个实体的嵌入焦点
嵌入单一入口点可以简化将 copilot 集成到应用程序中,减少复杂性,并允许用户接收对特定项目或操作的支持。 这有助于通过上下文感知帮助创建无缝的 copilot 体验,而无需占用永久性屏幕空间。
此选项非常适合仅需要偶尔的指南或交互的任务,尽管它可能不适合更复杂的或详细的交互。 完全嵌入的 copilot 应与常见的交互模式保持一致,例如突出显示一部分代码以调用 copilot 以采取措施,或让用户更深入地深入了解分析仪表板上的图表。
合并辅助焦点
除了单独使用这三个框架中的任何一个,还可以通过补充所选焦点和附加框架选项来创建更可靠的体验。 我们发现,将嵌入式选项与沉浸式或辅助性警察合并可为用户提供进一步的价值。
无论你为用例选择哪种级别的重点,最终目标是为用户提供积极高效的体验。 以下指南旨在帮助你通过有效的 UX 设计最大程度地提高 copilot 的成功。
Copilot UX 的三个基本原则
AI 驱动的体验可能令人印象深刻,人们对对话、原始内容似乎具有情感、信任的反应并不罕见。 但是,一个警察只是使用它训练的信息来预测一个逐字响应,没有固有的真理理解。 因此,请务必基于以下原则,为用户设置适当的期望。
原则 1:人工控制
所有出色的 copilot 体验都以以下基本概念为基础:copilot 只是支持用户的工具。 人类是飞行员。
若要设置此预期,请将用户置于驾驶座上。 这意味着给他们所需的信息,同时仍然提供有关 copilot 工作方式的透明度。 传达其能力和限制,并明确输出所基于的数据。 将此信息打包在有意义的人工控件中,使用户能够自信和迭代地引导警察实现其目标。
例如,在引入 copilot 功能时,不要在 UI 上使用操作词锁定“copilot”一词。 而不是“copilot,summarize”说“与 copilot 汇总”。此语言提醒用户,警察只是助理。
原则 2:避免人体化哥皮洛特
目前提供的许多生成式 AI 体验可以密切模仿自然人类语言。 由于这项技术非常善于这样做,因此,用户有可能对它的性质和能力产生不适当的高期望,因此依赖于警察的反应。
可通过几种方法帮助防止用户做出以下假设:
给警察的声音。 为了避免人们认为警戒是人性的,请教它使用正确的语言,并避免其反应中的某些词。 例如,避免任何上下文中诸如“理解”、“思考”或“感觉”之类的字词,因为它们可能传达了类似人类。 而是使用与计算机(如“处理”和分析)相关的字词。
然而,允许警察使用第一人称代词(我,我,我的,我,我,我自己)在回应中效果很好,因为它更对话。 虽然使用第一人称复数代词(我们,我们,我们的)来指代你的用户和你的警察在一起是好的,但不要使用这些代词来仅代表你的公司。 为什么? 因为这样可以授予你的声音许可证,在某些情况下,可能似乎代表你的公司说话。淡化个性。 请考虑在 UI 中调用 copilot 的含义。 如何向用户介绍它,以及如何在营销和支持材料中提及它? 你给它的字符越多,你就越人性化。
原则 3:考虑直接和间接利益干系人
与所有技术一样,生成式 AI 应用程序的影响可以超越主要用户。 在整个设计过程中,不仅要考虑直接用户,而且考虑到产品可能会影响所有人,尤其是最脆弱的直接和间接利益干系人。 为主要用户和可能看到输出的任何其他用户设计习惯。 请务必考虑生成 AI 应用程序的更广泛后果,包括可能的意外后果。
对于每个组织,这些注意事项各不相同,因此请与团队和一些潜在用户讨论,并提出如下问题:
- 如何使用此输出?
- 用户是否与其他人共享?
- 其他团队或组应该审查我们的生成 AI 策略吗?
- 谁是最脆弱的利益干系人,我们如何保护它们?
- 我们是否实施有意义的人工控制,以赋予用户不同的能力?
- 如果技术失败或滥用技术,会发生什么意外后果?
为应用程序生命周期设计体验
首次运行体验
当用户首次调用你的 copilot 时,他们应该发现它足以开始对话。 他们应该对 Copilot 可以和无法执行的操作有信心,因此请务必向新用户展示他们可以使用 AI 的不同方式。
Microsoft研究表明,用户更喜欢一种体验,该体验可以解释警察可以做什么,并为他们提供有关如何开始的建议。 有多种方法可以创建此类体验,我们鼓励你尝试与最终用户不同的方法。 以下注意事项来自 HAX 工具包,并提供了设计模式,这些模式提供了多种可用于混合和匹配以设置用户期望的技术:
- 明确系统可以执行的操作。 帮助用户了解 AI 系统能够执行的操作。
- 明确系统可以如何执行它可以执行的操作。 帮助用户了解 AI 系统可能犯错误的频率。
请记住,每个人在这个空间的学习,并成功地进行任何合作,你需要保持开放的心态,并创造性地思考。 准备好进行试验、学习、发现,甚至进行自己的研究。
应在应用程序的生命周期内考虑其他准则。 此处列出了一些最相关的内容,其中包含指向其相应模式的链接。 详细了解 HAX 设计库中Microsoft的其他指南。
交互阶段
- 匹配相关的社会规范。 确保根据用户的社交和文化背景,以预期的方式提供体验。
- 减少社会偏见。 确保 AI 系统的语言和行为不会强化不良和不公平的陈规定型观念和偏见。
错误时
- 支持高效更正。 使 AI 系统出错时,可以轻松编辑、优化或恢复。
- 明确为什么系统做了它做的事。 让用户能够访问 AI 系统的行为原因的说明。
加班
- 鼓励精细化反馈。 使用户能够在定期与 AI 系统交互期间提供反馈,指示其首选项。
- 提供全局控件。 允许用户全局自定义 AI 系统监视的内容及其行为方式。
协作 UX
Copilots 可以通过进行更改或创建新示例来改进现有信息,而无需额外的数据。 但是,此功能还意味着 copilot 有时可能会生成错误或无帮助的响应。
为了降低制造的可能性,一个好的做法是让用户能够指导警察,并在所谓的 协作 UX 中将其移动到其个人目标和目标。
可以使用以下输入和输出设计的提示为用户创建协作环境。 还可以发现,与构建 协作 UX 与 Human-AI 合作关系的这些最佳做法保持一致会很有帮助
输入设计的提示
有效的输入设计构成了协作体验的基石。 通过指导用户进行结构良好的输入,它为相关和准确的响应奠定了基础。
1:提供帮助用户继续前进的建议
因为生成 AI 是新技术,所以很多人很难马上知道该做什么或键入什么。 长期形式的自然语言键入对许多人来说仍然是一种习惯。 为了帮助用户前进,除了愉快的入职体验之外,还提供明确的建议和提示,如大型输入框和字符计数器,鼓励他们形成良好的输入。
对于更具体的需求,请添加提示手册等功能,为用户提供特定、简短的查询,这些查询以可预测和可重复的方式与自定义数据交互,从而更快地生成有用的信息。
2:鼓励详细信息
帮助用户创建良好、详细的输入的另一种方法是设计使用各种元素的体验。
例如,可以将一个常规提示分隔为多个输入字段。 将以下问题替换为以下四个输入:“你想要博客的内容?”
- 键入标题
- 添加一些更多详细信息
- 包括图像
- 描述语气
3:允许使用音调和其他选项自定义输入
说起语气,帮助用户通过在开始时提供预定义的选项来自定义其输入。 确保你的用户清楚地了解语调设置,并让他们知道他们可以随时在对话中更改音调设置。
4:通过多模式设计增强用户交互和参与度
要使用户能够通过他们喜欢的任何设备或方法有效地与 copilot 互动,请在输入界面中提供多种形式。 这种包容性工作可能意味着添加语音和文本选项,并扩展为允许多语言输入。 为用户提供多个用于创建输入的选项,使他们能够更轻松地和协作地进行通信。
输出设计的提示
在协作式 UX 方法中,用户需要指导 copilot 在输入和输出之间持续反馈循环,以达到其目标。 输出设计为用户创建形状和影响 copilot 响应并推动所需输出的途径。
1:一起显示输入和输出
这有助于用户将输出质量与输入选择相关联,提供严格的反馈循环,用户可以继续生成输入,直到模型生成所需的输出。
2:保留输出和提示的历史记录
鼓励用户尝试各种输入来获取有意义的输出至关重要;但是,它并不总是与输出的向前交互,每次都变得更好。
有时,新的提示可能会导致输出更差。 通过时间线或输出历史记录,用户可以自信地尝试新输入,而不必担心失去对可能更好以前的输出的访问权限,甚至使用多个输出的一部分。
同样,允许用户使用以前的提示对迭代过程非常有价值。
3:添加适当的摩擦(这是一件好事!
我们经常想消除产品体验中的摩擦。 但请记住,警察是一个不精确的(“概率”)系统,可能会犯错误。 由于这种可能性,你需要添加适当的摩擦,以帮助用户构建新的心理模式。
此处的目标是放慢用户速度,并鼓励他们在整个过程中查看输出。 在关键时刻添加摩擦,如保存、共享、复制和粘贴,并向用户明确表示他们将拥有内容的所有权。 因此,他们负责鼓励他们首先检查的内容。
建议用户在此处编辑内容以提供更多上下文或向其添加个人触摸。 为每个明确表达 AI 生成的内容的输出添加 AI 通知和免责声明可能不正确。
4:鼓励使用引文和直接引文进行事实检查
鼓励事实检查的一种具体方法是让 COPILOT 显示引用数据中的引用,从而使 AI 更有可能使用来自现有资源的响应,而不是捏造数据和信息。 这些参考还提醒用户通过再次查看 copilot 的输出并针对其源验证其使用的内容负责。
通过将来自源的直接报价与将用户定向到该信息的特定位置,你的警察可以支持更彻底的事实检查。 这些引文有助于与训练数据集保持一致,并建立适当的信任和适当的依赖。
有关事实检查的最后一个注释:显示引用并不能完全阻止警察组成内容。 进一步设计一个体验,以降低用户速度(请参阅“添加适当的摩擦”),并鼓励他们查看回复。
5:允许用户编辑输出
copilot 可以接近所需的输出,但可能与它完全匹配。 你可能会发现缺少一些上下文。 也许响应听起来太常规,或者与你通常的个人语气不匹配,而不是如果你自己创建了类似的内容。
协作 UX 的关键部分是让用户进行干预和修改输出。 它还显示,copilot 是一个帮助程序或助手,用户作为飞行员。
6:必要时保留输出
在某些情况下,警察最好不给出答案,而不是输出可能不适当的内容。 你可能希望模型脱离,并提示用户启动一个新的聊天,“很抱歉,我无法聊天本主题。 若要保存聊天并启动新的聊天,请选择“新建聊天”。
有时存在错误状态和不适当的输入,需要创建预写响应。 对于有害或有争议的话题,如自我伤害和选举,Microsoft建议警察不脱离接触,而是使用预定义的体验。 如果不想完全脱离用户,但只想重定向对话,建议他们“请尝试其他主题”。
每种情况都是不同的,最好根据应用程序的用途和预期用途定制这些响应。
7:允许用户提供有关输出的反馈
为用户设计机制,以便用户通过准确性分级系统等内容评估 copilot 的输出、要求其更正响应的选项、将响应标记为有用或无帮助,或对收到的输出留下评论。 还可以演示用户反馈如何帮助改进他们的副输出和体验,以增强其反馈的价值。
后续步骤
现在,你已了解如何实现所需的用户体验,以下是Microsoft的资源和工具,可帮助你开始生成生成 AI 应用程序。