适用于 Microsoft 365 的 Microsoft Copilot 的数据、隐私和安全性

适用于 Microsoft 365 的 Microsoft Copilot 是一个复杂的处理和编排引擎,它通过协调以下组件提供 AI 支持的生产力功能:

  • 大型语言模型(LLM)
  • Microsoft Graph 中的内容,例如你有权访问的电子邮件、聊天和文档。
  • 每天使用的 Microsoft 365 应用,例如 Word 和 PowerPoint。

有关这三个组件如何协同工作的概述,请参阅 适用于 Microsoft 365 的 Microsoft Copilot 概述。 有关与适用于 Microsoft 365 的 Microsoft Copilot 相关的其他内容的链接,请参阅 适用于 Microsoft 365 的 Microsoft Copilot 文档

重要

  • 适用于 Microsoft 365 的 Microsoft Copilot 符合我们对 Microsoft 365 商业客户的现有隐私、安全性和合规性承诺,包括一般数据保护条例 (GDPR) 和欧盟 (EU) 数据边界。
  • 通过 Microsoft Graph 访问的提示、回复和数据不用于训练基础 LLM,包括适用于 Microsoft 365 的 Microsoft Copilot 使用的 LLM。

本文中的信息旨在帮助回答以下问题:

注意

适用于 Microsoft 365 的 Microsoft Copilot 将随着时间推移而不断改进,并提供新功能。 若要在适用于 Microsoft 365 的 Microsoft Copilot 上保持最新状态或提问,请访问 Microsoft 技术社区上的 Microsoft 365 Copilot 社区

适用于 Microsoft 365 的 Microsoft Copilot 如何使用专有组织数据?

适用于 Microsoft 365 的 Microsoft Copilot 通过联系 LLM 与组织数据来提供价值。 适用于 Microsoft 365 的 Microsoft Copilot 通过 Microsoft Graph 访问内容和上下文。 它可以基于客户业务内容(例如用户文档、电子邮件、日历、聊天、会议、联系人和其他业务数据)生产响应。 适用于 Microsoft 365 的 Microsoft Copilot 将此内容与用户的工作上下文联系起来,例如用户现在参加的会议、用户对某个主题的电子邮件交流,或用户上周的聊天对话。 适用于 Microsoft 365 的 Microsoft Copilot 将此内容和上下文联系起来,以帮助提供准确、相关和符合上下文的回复。

重要

通过 Microsoft Graph 访问的提示、回复和数据不用于训练基础 LLM,包括适用于 Microsoft 365 的 Microsoft Copilot 使用的 LLM。

适用于 Microsoft 365 的 Microsoft Copilot 仅显示单个用户至少具有查看权限的组织数据。 请务必使用 Microsoft 365 服务(例如 SharePoint)中提供的权限模型,以帮助确保正确的用户或组有权访问组织内的相应内容。 这包括通过租户间协作解决方案(如 Microsoft Teams 中的共享频道)向组织外部的用户授予的权限。

使用适用于 Microsoft 365 的 Microsoft Copilot 输入提示时,提示中包含的信息、它们检索的数据以及生成的回复仍在 Microsoft 365 服务边界内,以符合我们当前的隐私、安全性和合规性承诺。 适用于 Microsoft 365 的 Microsoft Copilot 使用 Azure OpenAI 服务进行处理,而不是使用 OpenAI 的公开服务。 Azure Open AI 不会缓存客户内容和 Copilot 修改的适用于 Microsoft 365 的 Copilot提示。

注意

使用适用于 Microsoft 365 的 Microsoft Copilot 时,组织的数据可能会在以下情况下离开 Microsoft 365 服务边界:

对适用于 Microsoft 365 的 Microsoft Copilot 的滥用监视是实时进行的,无需向 Microsoft 提供对客户数据的任何长期访问权限,无论是人工还是自动审查。 虽然滥用审查(包括对内容进行人工审查)在 Azure OpenAI 中可用,但适用于 Microsoft 365 的 Microsoft Copilot 服务已选择退出。 Azure OpenAI 不会收集或存储 Microsoft 365 数据。

注意

我们可能会使用客户反馈(可选)来改进适用于 Microsoft 365 的 Microsoft Copilot,就像我们使用客户反馈改进其他 Microsoft 365 服务和 Microsoft 365 应用一样。 我们不会使用此反馈来训练适用于 Microsoft 365 的 Microsoft Copilot 使用的基础 LLM。 客户可以通过管理员控件管理反馈。 有关详细信息,请参阅管理组织的 Microsoft 反馈提供有关适用于 Microsoft 365 的 Microsoft Copilot 的反馈

存储的有关用户与适用于 Microsoft 365 的 Microsoft Copilot 交互的数据

当用户与适用于 Microsoft 365 的 Microsoft Copilot 应用 (如 Word、PowerPoint、Excel、OneNote、Loop 或 Whiteboard) 交互时,我们会存储有关这些交互的数据。 存储的数据包括用户的提示和 Copilot 的回复,包括对用于支持 Copilot 回复的任何信息的引用。 我们将用户的提示和 Copilot 对此提示的回复称为“交互内容”,这些交互的记录是用户的 Copilot 交互历史记录。 例如,此存储的数据为用户提供 Microsoft Copilot 中的 Copilot 交互历史记录,其中包含基于 Graph 的聊天Microsoft Teams 中的会议。 此数据的处理和存储方式与组织在 Microsoft 365 中的其他内容的合同承诺保持一致。 数据会在存储时加密,且不会用于训练基础 LLM,包括适用于 Microsoft 365 的 Microsoft Copilot 使用的基础 LLM。

若要查看和管理此存储数据,管理员可以使用内容搜索或 Microsoft Purview。 管理员还可以使用 Microsoft Purview 为与 Copilot 的聊天交互相关的数据设置保留策略。 有关详细信息,请参阅以下文章:

对于使用 Copilot 的 Microsoft Teams 聊天,管理员还可以使用 Microsoft Teams 导出 API 查看存储的数据。

删除用户与适用于 Microsoft 365 的 Microsoft Copilot 交互的历史记录

用户可以通过转到“我的帐户”门户 删除其 Copilot 交互历史记录(包括其提示和 Copilot 返回的回复)。 有关详细信息,请参阅 删除 Microsoft Copilot 交互历史记录

适用于 Microsoft 365 的 Microsoft Copilot 和欧盟数据边界

适用于 Microsoft 365 的 Microsoft Copilot 对 LLM 的调用会路由到区域最近的数据中心,但也可以调用到利用率高峰期间有可用容量的其他区域。

对于欧盟 (EU) 用户,我们有其他安全措施来遵守欧盟数据边界。 欧盟流量保留在欧盟数据范围内,而全球流量可以发送到欧盟和其他国家或地区进行 LLM 处理。

适用于 Microsoft 365 的 Microsoft Copilot 和数据驻留

适用于 Microsoft 365 的 Copilot 正在遵守 Microsoft 产品条款和数据保护附录中所述的数据驻留承诺。 适用于 Microsoft 365 的 Copilot 已于 2024 年 3 月 1 日 添加为 Microsoft 产品条款中的数据驻留承诺中涵盖的工作负载。

Microsoft 高级数据驻留 (ADR) 多地理位置功能产品/服务包括截至 2024 年 3 月 1 日适用于 Microsoft 365 的 Copilot客户的数据驻留承诺。 对于欧盟客户,适用于 Microsoft 365 的 Copilot 是欧盟数据边界服务。 欧盟以外的客户可能会在美国、欧盟或其他区域处理其查询。

适用于 Microsoft 365 的 Microsoft Copilot 和 Web 内容插件

适用于 Microsoft 365 的 Copilot 可以选择使用来自 Web 的最新信息来增强聊天答案。 启用 Web 内容插件后,当 Copilot 确定来自 Web 的信息将有助于提供更好、更明治的回复时,Copilot 可能会从必应搜索索引中提取信息。

管理员控件和用户级切换可用于管理是否在环境中启用 Web 内容插件

Web 内容插件的工作原理

在聊天中启用 Web 内容插件时,适用于 Microsoft 365 的 Copilot 将分析用户的提示,并识别 Web 支持可以提高回复质量的术语。 根据这些术语,Copilot 会生成一个搜索查询,该查询将发送到 必应搜索 API 以获取详细信息。 此搜索查询与用户的提示不同,它通常由用户的提示和/或 Microsoft 365 数据提供的几个字词组成。 它不会自动包含与提示关联的整个 Microsoft 365 文档。

下表提供了用户提示、发送的搜索查询和 Copilot 回复的示例。

Entity Text
提示(由用户编写) 我们正在考虑对 Fabrikam 可能进行的收购。 帮助我整理了一份 200 字的摘要报告,其中包含公司公开的财务信息,包括其业务策略。
搜索查询(由 Copilot 生成并发送到必应搜索 API) Fabrikam 策略
Fabrikam 财务
回复(由 Copilot 生成) Fabrikam 是一家 CPG 初创公司,它提供更健康的食物替代品,但具有与传统品牌一样的熟悉口味。 该公司在 2019 年获得了 450 万美元的种子资金,并在 2022 年的 B 轮融资中筹集了 3150 万美元。 截至 2023 年 1 月,Fabrikam 总共筹集了 8340 万美元的资金,并计划今年的销售额增加一倍以上。

在疫情来临时,Fabrikam 面临着从实体店转向在线销售的挑战,这正式其影响者营销策略发挥作用的地方。 Fabrikam 没有依靠店内活动和促销,而是转向社交媒体和影响者合作关系,以建立品牌知名度,并覆盖更广泛的受众。 该公司还从真正的角度进行创新,在传统消费驱动因素与更适合你的产品/服务之间取得平衡,并制定了全面、稳健的分销战略。

总之,Fabrikam 已筹集超过 5500 万美元的资金,并拥有强大的影响者营销策略,这帮助他们在疫情期间转向在线销售。

在此示例中,仅有两个搜索查询发送到必应搜索 API。 用户输入提示后,聊天体验将显示生成并发送到必应的任何查询。 用户的提示和 Copilot 的回复将存储在 Microsoft 365 中。 适用于 Microsoft 365 的 Copilot 发送到必应搜索 API 的搜索查询与用户 ID 和租户 ID 没有关联。

必应搜索 API 由 Bing.com 提供,该 API 独立于 Microsoft 365 运行,并采用不同的数据处理方法。 每个用户和 Microsoft 之间的 Microsoft 服务协议 以及 Microsoft 隐私声明均介绍了对必应的使用。 Microsoft 产品和服务数据保护附录 (DPA) 不适用于对 Web 内容插件或必应搜索 API 的使用。

可用于管理 Web 内容使用情况的控件

管理员可以阻止适用于 Microsoft 365 的 Copilot 中对 Web 内容的访问。 有关详细信息,请参阅 管理适用于 Microsoft 365 的 Microsoft Copilot 中对 Web 内容的访问。 即使管理员允许,用户仍可以选择是否使用 Web 插件。 有关详细信息,请参阅 将其他数据源与 Microsoft 365 Copilot 配合使用

注意

控制 Microsoft 365 应用中可选连接体验使用的策略设置不适用于适用于 Microsoft 365 的 Microsoft Copilot 和 Web 内容。

适用于 Microsoft 365 的 Microsoft Copilot 的可扩展性

虽然适用于 Microsoft 365 的 Microsoft Copilot 已能够在 Microsoft 365 生态系统中使用应用和数据,但许多组织仍依赖各种外部工具和服务进行工作管理和协作。 适用于 Microsoft 365 的 Microsoft Copilot 体验可以通过使用 Microsoft Graph 连接器或插件在响应用户请求时引用第三方工具和服务。 如果用户有权访问该信息,则可以在适用于 Microsoft 365 的 Microsoft Copilot 中返回来自 Graph 连接器的数据。

启用插件后,适用于 Microsoft 365 的 Microsoft Copilot 确定是否需要使用特定插件来帮助向用户提供相关回复。 如果需要插件,适用于 Microsoft 365 的 Microsoft Copilot 将生成一个搜索查询,以代表用户发送到该插件。 查询基于用户的提示、Copilot 交互历史记录以及用户在 Microsoft 365 中有权访问的数据。

Microsoft 365 管理中心集成应用部分中,管理员可以查看插件所需的权限和数据访问权限,以及插件的使用条款和隐私声明。 管理员可以完全控制以选择允许在其组织中使用的插件。 用户只能访问其管理员允许的插件以及用户安装或分配的插件。 适用于 Microsoft 365 的 Microsoft Copilot 仅使用用户启用的插件。

注意

控制在 Microsoft 365 应用版中使用可选连接体验的策略设置不适用于插件。

有关详细信息,请参阅以下文章:

适用于 Microsoft 365 的 Microsoft Copilot 如何保护组织数据?

Microsoft 365 租户中的权限模型有助于确保数据不会在用户、组和租户之间无意中泄漏。 适用于 Microsoft 365 的 Microsoft Copilot 仅显示每个人可以访问的数据,且使用与其他 Microsoft 365 服务中使用的数据访问相同的基础控件。 语义索引支持基于用户身份的访问范围,以便“Grounding”进程仅访问当前用户有权访问的内容。 有关详细信息,请参阅 Microsoft 的 隐私策略和服务文档

如果数据由 Microsoft Purview 信息保护加密,则适用于 Microsoft 365 的 Microsoft Copilot 将遵守授予用户的使用权限。 此加密可以通过 敏感度标签 或 Microsoft 365 应用中的受限权限应用,方法是使用信息权限管理 (IRM)。 有关将 Microsoft Purview 与 适用于 Microsoft 365 的 Microsoft Copilot 配合使用的详细信息,请参阅针对生成 AI 应用的 Microsoft Purview 数据安全性和合规性保护

我们已实施多种形式的保护,以帮助防止客户损害 Microsoft 365 服务和应用程序,或获取对其他租户或 Microsoft 365 系统自身的未经授权的访问权限。 下面是各种保护形式的一些示例:

  • Microsoft 365 服务每个租户中的客户内容逻辑隔离是通过 Microsoft Entra 授权和基于角色的访问控制实现。 有关详细信息,请参阅 Microsoft 365 隔离控件

  • Microsoft 使用严格的物理安全性、后台屏蔽和多层加密策略来保护客户内容的机密性和完整性。

  • Microsoft 365 使用服务端技术来加密静态和传输中的客户内容,包括 BitLocker、按文件加密、传输层安全性 (TLS) 和 Internet 协议安全性 (IPsec)。 有关 Microsoft 365 加密的具体详细信息,请参阅 Microsoft 云中的加密

  • Microsoft 承诺遵守广泛适用的隐私法(例如 GDPR)和隐私标准(例如 ISO/IEC 27018),这是全球首个云隐私国际实践准则,从而加强你对数据的控制。

  • 对于通过适用于 Microsoft 365 的 Microsoft Copilot 插件访问的内容,加密可以排除编程访问,从而限制插件访问内容。 有关详细信息,请参阅 为 Azure 信息保护配置使用权限

满足法规合规性要求

随着 AI 领域法规的发展,Microsoft 将继续满足和适应足未来法规的要求。

适用于 Microsoft 365 的 Microsoft Copilot 基于 Microsoft 当前对企业中数据安全和隐私的承诺。 这些承诺始终如一。 适用于 Microsoft 365 的 Microsoft Copilot 已集成到 Microsoft 365 中,并遵守对 Microsoft 365 商业客户的所有现有隐私、安全和合规性承诺。 有关详细信息,请参阅 Microsoft 合规性

除了遵守法规之外,我们还优先与客户、合作伙伴和监管机构建立开放对话,以便更好地了解和解决问题,从而形成信任和合作的环境。 我们承认在 Microsoft AI 驱动的环境下,隐私性、安全性和透明度不仅仅是其特征,而是先决条件。

其他信息

适用于 Microsoft 365 的 Microsoft Copilot 和连接体验的策略设置

如果关闭用于分析组织中 Windows 或 Mac 设备上 Microsoft 365 应用版内容的连接体验,则以下应用中的用户将无法使用适用于 Microsoft 365 的 Microsoft Copilot 功能:

  • Excel
  • PowerPoint
  • OneNote
  • Word

同样,如果关闭 Microsoft 365 应用版的连接体验,则 Windows 或 Mac 设备上这些应用中的适用于 Microsoft 365 的 Microsoft Copilot 功能将不可用。

有关这些策略设置的详细信息,请参阅以下文章:

关于适用于 Microsoft 365 的 Microsoft Copilot 创建的内容

使用生成性 AI 产生的响应,并不能保证 100% 的事实性。 尽管我们不断改进响应,但用户仍应在发送输出内容给其他人之前通过判断来检查。 我们的适用于 Microsoft 365 的 Microsoft Copilot 功能提供有用的草稿和摘要,可帮助你实现更多目标,同时让你有机会查看生成的 AI,而不是将这些任务完全自动化。

我们将继续改进算法,努力解决诸如错误信息和虚假信息、内容拦截、数据安全等问题,并根据我们负责任的 AI 原则防止推广有害或歧视性的内容等问题。

Microsoft 不声明服务输出的所有权。 也就是说,我们不会确定客户的输出是否受版权保护或可对其他用户强制执行。 这是因为生成式 AI 系统可能会对多个客户的类似提示或查询生成类似的响应。 因此,多个客户可能拥有或声称拥有相同或基本相似的内容的权利。

如果第三方起诉商业客户使用 Microsoft Copilots 或其生成的输出侵犯版权,我们将为客户辩护,并支付诉讼导致的任何不利判决或和解金额,只要客户使用我们内置于产品中的防护措施和内容筛选器。 有关详细信息,请参阅 Microsoft 宣布面向客户的新 Copilot 版权承诺

致力于负责任的 AI

正当 AI 改变我们生活的时候,我们必须为这项技术的使用和影响共同定义新规则、规范和实践。 自 2017 年以来,Microsoft 一直在开拓负责任的 AI 之旅,当时我们定义了我们的原则和方法,以确保以人为本的道德原则驱动这项技术使用。

在 Microsoft,我们遵循 AI 原则负责任的 AI 标准,以及数十年的 AI、Grounding 和隐私保护机器学习研究。 由研究人员、工程师和策略专家组成的多学科团队审查 AI 系统的潜在危害和缓解措施 - 优化培训数据、筛选以限制有害内容、查询和结果拦截敏感主题,以及应用 Microsoft 技术(例如 InterpretMLFairlearn)以帮助检测和纠正数据偏差。 我们通过指出局限性、链接来源以及提示用户审查、事实核查和根据主题专业知识调整内容,来明确系统如何做出决定。 有关详细信息,请参阅 管理 AI:未来蓝图

我们的目标是帮助我们的客户负责任地使用 AI 产品,分享我们的学习知识,并建立基于信任的合作关系。 对于这些新服务,我们希望向客户提供有关 AI 平台服务的预期用途、功能和限制的信息,以便他们拥有做出负责任部署选择所需的知识。 我们还与组织内部的开发人员以及独立软件供应商 (ISV) 共享资源和模板,以帮助他们构建有效、安全且透明的 AI 解决方案。