Microsoft 365 Copilot 的数据、隐私和安全性

Microsoft 365 Copilot 是一个复杂的处理和编排引擎,它通过协同以下组件来提供 AI 支持的生产力功能:

  • 大型语言模型(LLM)
  • Microsoft Graph 中的内容,例如你有权访问的电子邮件、聊天和文档。
  • 每天使用的 Microsoft 365 应用,例如 Word 和 PowerPoint。

有关这三个组件如何协同工作的概述,请参阅 Microsoft 365 Copilot 概述。 有关与 Microsoft 365 Copilot 相关的其他内容的链接,请参阅 Microsoft 365 Copilot 文档

重要

本文中的信息旨在帮助回答以下问题:

注意

随着时间的推移,Microsoft 365 Copilot 将继续扩展新功能。 若要了解 Microsoft 365 Copilot 的最新情况或提出问题,请访问 Microsoft 技术社区上的 Microsoft 365 Copilot 社区

Microsoft 365 Copilot 如何使用专有组织数据?

Microsoft 365 Copilot 通过将 LLM 连接到组织数据来提供价值。 Microsoft 365 Copilot 通过 Microsoft Graph 访问内容和上下文。 它可以基于客户业务内容(例如用户文档、电子邮件、日历、聊天、会议、联系人和其他业务数据)生产响应。 适用于 Microsoft 365 的 Copilot 将此内容与用户的工作环境联系起来,例如用户现在参加的会议、用户对某个主题的电子邮件交流,或用户上周的聊天对话。 Microsoft 365 Copilot 将此内容和环境联系起来,以帮助提供准确、相关且符合上下文的响应。

重要

通过 Microsoft Graph 访问的提示、回复和数据不用于培训基础 LLM,包括 Microsoft 365 Copilot 使用的 LLM。

Microsoft 365 Copilot 仅显示单个用户至少具有查看权限的组织数据。 请务必使用 Microsoft 365 服务(例如 SharePoint)中提供的权限模型,以帮助确保正确的用户或组有权访问组织内的相应内容。 这包括通过租户间协作解决方案(如 Microsoft Teams 中的共享频道)向组织外部的用户授予的权限。

使用适用于 Microsoft 365 的 Copilot 输入提示时,提示中包含的信息、它们检索的数据以及生成的响应仍在 Microsoft 365 服务边界内,以符合我们当前的隐私、安全性和合规性承诺。 适用于 Microsoft 365 的 Copilot 使用 Azure OpenAI 服务进行处理,而不是使用 OpenAI 的公开服务。 Azure OpenAI 不会缓存客户内容,并且 Copilot 修改了适用于 Microsoft 365 的 Copilot 的提示。 有关详细信息,请参阅 本文后面的有关用户与适用于 Microsoft 365 的 Copilot 交互的数据

注意

虽然滥用监视(包括对内容进行人工审查)在 Azure OpenAI 中可用,但适用于 Microsoft 365 的 Copilot 服务已选择退出。 有关内容筛选的信息,请参阅 本文后面的“Copilot 如何阻止有害内容?” 部分。

注意

我们可能会使用客户反馈(可选)来改进适用于 Microsoft 365 的 Copilot,就像我们使用客户反馈改进其他 Microsoft 365 服务和 Microsoft 365 生产力应用一样。 我们不会使用此反馈来训练 Microsoft 365 Copilot 使用的基础 LLM。 客户可以通过管理员控件管理反馈。 有关详细信息,请参阅管理组织的 Microsoft 反馈提供有关适用于 Microsoft 365 的 Microsoft Copilot 应用的反馈

存储有关用户与适用于 Microsoft 365 的 Copilot 交互的数据

当用户与适用于 Microsoft 365 的 Copilot 应用(使用 Word、PowerPoint、Excel、OneNote、Loop 或 Whiteboard 等)交互时,我们会存储有关这些交互的数据。 存储的数据包括用户的提示和 Copilot 的回复,包括对用于支持 Copilot 回复的任何信息的引用。 我们将用户的提示和 Copilot 对此提示的响应称为“交互内容”,这些交互的记录是用户的 Copilot 活动历史记录。 例如,此存储的数据为用户提供了 智能 Microsoft 365 Copilot 副驾驶® 对话助手 (以前在 Microsoft Teams 中名为 Business Chat) 和会议的 Copilot 活动历史记录。 此数据的处理和存储方式与组织在 Microsoft 365 中的其他内容的合同承诺保持一致。 数据会在存储时加密,且不会用于训练基础 LLM,包括适用于 Microsoft 365 的 Copilot 使用的基础 LLM。

若要查看和管理此存储数据,管理员可以使用内容搜索或 Microsoft Purview。 管理员还可以使用 Microsoft Purview 为与 Copilot 的聊天交互相关的数据设置保留策略。 有关详细信息,请参阅以下文章:

对于使用 Copilot 的 Microsoft Teams 聊天,管理员还可以使用 Microsoft Teams 导出 API 查看存储的数据。

删除用户与适用于 Microsoft 365 的 Copilot 交互的历史记录

用户可以通过转到 “我的帐户”门户来删除其 Copilot 活动历史记录,其中包括其提示和 Copilot 返回的响应。 有关详细信息,请参阅删除智能 Microsoft 365 Copilot 副驾驶®活动历史记录

Microsoft 365 Copilot 和欧盟数据边界

Microsoft 365 Copilot 对 LLM 的调用会路由到区域最近的数据中心,但也可以调用到利用率高峰期间容量可用的其他区域。

对于欧盟 (EU) 用户,我们有其他安全措施来遵守欧盟数据边界。 欧盟流量保留在欧盟数据范围内,而全球流量可以发送到欧盟和其他国家或地区进行 LLM 处理。

适用于 Microsoft 365 的 Copilot 和数据驻留

适用于 Microsoft 365 的 Copilot 正在遵守 Microsoft 产品条款和数据保护附录中所述的数据驻留承诺。 适用于 Microsoft 365 的 Copilot 已于 2024 年 3 月 1 日 添加为 Microsoft 产品条款中的数据驻留承诺中涵盖的工作负载。

Microsoft 高级数据驻留 (ADR) 多地理位置功能产品/服务包括截至 2024 年 3 月 1 日适用于 Microsoft 365 的 Copilot 客户的数据驻留承诺。 对于欧盟客户,适用于 Microsoft 365 的 Copilot 是欧盟数据边界服务。 欧盟以外的客户可能会在美国、欧盟或其他区域处理其查询。

Microsoft 365 Copilot 的可扩展性

虽然适用于 Microsoft 365 的 Copilot 已能够在 Microsoft 365 生态系统中使用应用和数据,但许多组织仍依赖各种外部工具和服务进行工作管理和协作。 使用 Microsoft Graph 连接器或代理响应用户请求时,智能 Microsoft 365 Copilot 副驾驶®体验可以引用第三方工具和服务。 如果用户有权访问该信息,则可以在适用于 Microsoft 365 的 Copilot 中返回来自 Graph 连接器的数据。

启用代理后,智能 Microsoft 365 Copilot 副驾驶®确定它是否需要使用特定代理来帮助向用户提供相关响应。 如果需要代理,智能 Microsoft 365 Copilot 副驾驶®会生成一个搜索查询,以代表用户发送到代理。 查询基于用户的提示、Copilot 活动历史记录以及用户有权在 Microsoft 365 中访问的数据。

Microsoft 365 管理中心“集成应用”部分中,管理员可以查看代理所需的权限和数据访问,以及代理的使用条款和隐私声明。 管理员可以完全控制选择允许在其组织中使用哪些代理。 用户只能访问其管理员允许以及用户安装或分配的代理。 智能 Microsoft 365 Copilot 副驾驶®仅使用用户打开的代理。

有关详细信息,请参阅以下文章:

适用于 Microsoft 365 的 Copilot 如何保护组织数据?

Microsoft 365 租户中的权限模型有助于确保数据不会在用户、组和租户之间无意中泄漏。 Microsoft 365 Copilot 仅显示每个人可以访问的数据,且使用与其他 Microsoft 365 服务中使用的数据访问相同的基础控件。 语义索引支持基于用户身份的访问范围,以便“Grounding”进程仅访问当前用户有权访问的内容。 有关详细信息,请参阅 Microsoft 的 隐私策略和服务文档

如果数据由 Microsoft Purview 信息保护加密,则适用于 Microsoft 365 的 Copilot 将遵守授予用户的使用权限。 可以通过 敏感度标签 应用此加密,也可以通过使用信息权限管理 (IRM) 在 Microsoft 365 中的应用中使用受限权限来应用此加密。 有关将 Microsoft Purview 与适用于 Microsoft 365 的 Copilot 配合使用的详细信息,请参阅 生成式 AI 应用的 Microsoft Purview 数据安全和合规性保护

我们已实施多种形式的保护,以帮助防止客户损害 Microsoft 365 服务和应用程序,或获取对其他租户或 Microsoft 365 系统自身的未经授权的访问权限。 下面是各种保护形式的一些示例:

  • Microsoft 365 服务每个租户中的客户内容逻辑隔离是通过 Microsoft Entra 授权和基于角色的访问控制实现。 有关详细信息,请参阅 Microsoft 365 隔离控件

  • Microsoft 使用严格的物理安全性、后台屏蔽和多层加密策略来保护客户内容的机密性和完整性。

  • Microsoft 365 使用服务端技术来加密静态和传输中的客户内容,包括 BitLocker、按文件加密、传输层安全性 (TLS) 和 Internet 协议安全性 (IPsec)。 有关 Microsoft 365 加密的具体详细信息,请参阅 Microsoft 云中的加密

  • Microsoft 承诺遵守广泛适用的隐私法(例如 GDPR)和隐私标准(例如 ISO/IEC 27018),这是全球首个云隐私国际实践准则,从而加强你对数据的控制。

  • 对于通过智能 Microsoft 365 Copilot 副驾驶®代理访问的内容,加密可以排除编程访问,从而限制代理访问内容。 有关详细信息,请参阅 为 Azure 信息保护配置使用权限

满足法规合规性要求

Microsoft随着 AI 法规要求的发展而不断进行调整和响应,因此我们赢得并保持客户、合作伙伴和监管机构的信任。

智能 Microsoft 365 Copilot 副驾驶®提供广泛的合规性服务和认证,包括 GDPRISO 27001HIPAA适用于 AI 管理系统的 ISO 42001 标准。 这些有助于支持客户完成合规性之旅,并辅之以合同就绪性、内置信息通信技术风险管理以及运营复原工具等功能。

Microsoft致力于遵守适用于Microsoft的所有法律和法规,包括欧盟 AI 法案,以使我们的 AI 解决方案符合不断演变的可靠和负责任的 AI 标准。 智能 Microsoft 365 Copilot 副驾驶®基于Microsoft对数据安全和隐私的现有承诺。 这些承诺没有变化。 Copilot 已集成到 Microsoft 365 中,并遵守对 365 Microsoft客户的现有隐私、安全性和合规性承诺。

此外,我们优先考虑与合作伙伴和监管机构的公开对话。 我们为客户提供直接访问Microsoft合规性专业人员、主动指导和特选解决方案,以帮助导航合规性,例如智能 Microsoft 365 Copilot 副驾驶® & Copilot 对话助手风险评估快速入门。 我们在 AI 驱动的环境中采用的方法旨在使组织能够自信地创新,并基于透明度、隐私和安全性构建的解决方案。

其他信息

适用于 Microsoft 365 的 Copilot 和连接体验的隐私控件

Microsoft 365 应用版中连接体验的一些隐私控件可能会影响适用于 Microsoft 365 的 Copilot 功能的可用性。 这包括用于分析内容的连接体验的隐私控件,以及可选连接体验的隐私控件。 有关隐私控件的详细信息,请参阅 Microsoft 365 企业应用版的隐私控件概述

用于分析内容的连接体验的隐私控件

如果关闭在组织中设备上分析内容的连接体验,智能 Microsoft 365 Copilot 副驾驶®功能将不适用于以下应用中的用户:

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • Word

这适用于在 Windows、Mac、iOS 或 Android 设备上运行这些应用的最新版本。

还有一项隐私控制,可关闭所有连接体验,包括分析内容的连接体验。 如果你使用该隐私控制,智能 Microsoft 365 Copilot 副驾驶®功能将无法在应用和上述设备上使用。

可选连接体验的隐私控制

如果在组织中关闭可选的连接体验,则用户将无法使用可选连接体验的适用于 Microsoft 365 的 Copilot 功能。 例如,关闭可选的连接体验可能会影响 Web 搜索的可用性。

还有一项隐私控件,可关闭所有连接体验,包括可选的连接体验。 如果使用该隐私控件,适用于 Microsoft 365 的 Copilot 可选连接体验的功能将不可用。

关于 Microsoft 365 Copilot 创建的内容

使用生成性 AI 产生的响应,并不能保证 100% 的事实性。 尽管我们不断改进响应,但用户仍应在发送输出内容给其他人之前通过判断来检查。 我们的 Microsoft 365 Copilot 功能提供有用的草稿和摘要,可帮助你实现更多目标,同时让你有机会查看生成的 AI,而不是完全将这些任务自动化。

我们将继续改进算法,努力解决诸如错误信息和虚假信息、内容拦截、数据安全等问题,并根据我们负责任的 AI 原则防止推广有害或歧视性的内容等问题。

Microsoft 不声明服务输出的所有权。 也就是说,我们不会确定客户的输出是否受版权保护或可对其他用户强制执行。 这是因为生成式 AI 系统可能会对多个客户的类似提示或查询生成类似的响应。 因此,多个客户可能拥有或声称拥有相同或基本相似的内容的权利。

如果第三方起诉商业客户使用 Microsoft Copilots 或其生成的输出侵犯版权,我们将为客户辩护,并支付诉讼导致的任何不利判决或和解金额,只要客户使用我们内置于产品中的防护措施和内容筛选器。 有关详细信息,请参阅 Microsoft 宣布面向客户的新 Copilot 版权承诺

Copilot 如何阻止有害内容?

为了帮助阻止有害内容,智能 Microsoft 365 Copilot 副驾驶®使用 Azure OpenAI 服务,该服务包括与核心模型一起工作的内容筛选系统。 针对“恶意与公平”、“性”、“暴力”和“自残”类别的内容筛选模型经过了专门的培训,并以各种语言进行了测试。 此系统的工作原理是通过分类模型运行输入提示和响应,这些模型旨在标识和阻止有害内容的输出。

与仇恨和公平相关的伤害是指任何基于种族、民族、国籍、性别认同和表达、性取向、宗教、移民身份、能力状况、个人外貌和体型等属性使用贬义或歧视性语言的内容。 公平性是指确保 AI 系统公平地对待所有人群,而不会助长现有的社会不公平现象。 性内容涉及对人体生殖器官、恋爱关系、色情或亲昵行为、怀孕、身体性行为(包括攻击或强迫性暴力行为)、卖淫、色情和虐待的讨论。 暴力描述与旨在伤害或杀害的身体行为有关的语言,包括行动、武器和相关实体。 自残语言是指故意伤害或杀害自己的行为。

除了 Azure OpenAI 服务提供的内容筛选外,智能 Microsoft 365 Copilot 副驾驶®还应用筛选器来帮助防止发生工作场所危害。 工作场所危害是指生成 AI 或模型根据员工工作场所通信对员工进行推理、判断或评估而造成的一类危害。 目前,这意味着对员工的表现、态度、内部或情感状态或个人特征的推理、判断或评估。 我们限制将生成 AI 或模型用于这些目的。

Copilot 是否提供受保护的材料检测?

是的,适用于 Microsoft 365 的 Copilot 可检测受保护的材料,其中包括受版权约束的文本和受许可限制的代码。 并非所有这些缓解措施都适用于所有适用于 Microsoft 365 的 Copilot 应用场景。

Copilot 是否阻止提示注入(越狱攻击)?

越狱攻击是旨在绕过 Copilot 的安全措施或诱发不符合行为的提示。 智能 Microsoft 365 Copilot 副驾驶®通过使用专有的越狱和跨提示注入攻击 (XPIA) 分类器来帮助缓解这些攻击。 这些分类器分析 Copilot 服务的输入,并帮助在模型执行之前阻止高风险提示。

发生基础模型更改时会发生什么情况?

定期更新和增强为智能 Microsoft 365 Copilot 副驾驶®提供支持的 AI 模型。 模型更新带来了性能改进、更高级的推理和扩展的功能,但它们不会更改你的安全性、隐私或合规性设置。 有关详细信息,请参阅 Microsoft 365 博客:了解智能 Microsoft 365 Copilot 副驾驶®中的基础模型更改

致力于负责任的 AI

正当 AI 改变我们生活的时候,我们必须为这项技术的使用和影响共同定义新规则、规范和实践。 自 2017 年以来,Microsoft 一直在开拓负责任的 AI 之旅,当时我们定义了我们的原则和方法,以确保以人为本的道德原则驱动这项技术使用。

在 Microsoft,我们遵循 AI 原则负责任的 AI 标准,以及数十年的 AI、Grounding 和隐私保护机器学习研究。 由研究人员、工程师和策略专家组成的多学科团队审查 AI 系统的潜在危害和缓解措施 - 优化培训数据、筛选以限制有害内容、查询和结果拦截敏感主题,以及应用 Microsoft 技术(例如 InterpretMLFairlearn)以帮助检测和纠正数据偏差。 我们通过指出局限性、链接来源以及提示用户审查、事实核查和根据主题专业知识调整内容,来明确系统如何做出决定。 有关详细信息,请参阅 管理 AI:未来蓝图

我们的目标是帮助我们的客户负责任地使用 AI 产品,分享我们的学习知识,并建立基于信任的合作关系。 对于这些新服务,我们希望向客户提供有关 AI 平台服务的预期用途、功能和限制的信息,以便他们拥有做出负责任部署选择所需的知识。 我们还与组织内部的开发人员以及独立软件供应商 (ISV) 共享资源和模板,以帮助他们构建有效、安全且透明的 AI 解决方案。