负责任 AI 常见问题解答

什么是 Microsoft 安全 Copilot? 

Copilot for Security 是一种自然语言,由 AI 提供支持的安全分析工具,可帮助安全专业人员快速响应威胁,以计算机速度处理信号,并在几分钟内评估风险。 它从插件和数据中提取上下文,以回答与安全相关的提示,以便安全专业人员可以帮助保护其组织的安全。 用户可以从 Microsoft 安全 Copilot 收集他们认为有用的响应,并将其固定到固定板上以供将来参考。

Microsoft 安全 Copilot 可以做什么? 

Copilot for Security 带来了 OpenAI 体系结构的全部功能,并将其与 Microsoft Security 领先专业知识、全球威胁情报和综合安全产品开发的特定于安全的模型相结合。 安全 Copilot 可帮助安全专业人员更好地检测威胁、强化防御并更快地响应安全事件。

Microsoft 安全 Copilot 通过以下方式帮助增强安全运营:

  • 发现漏洞、确定风险优先级,并为威胁防护和修正提供指导性建议

  • 显示事件、评估其规模并提供修正步骤建议

  • 汇总事件和威胁,并创建可自定义报表

  • 通过内置功能协助安全专业人员协作

安全 Copilot 的预期用途是什么? 

安全 Copilot 旨在帮助安全分析师调查和解决事件,总结和解释安全事件,并与利益干系人共享发现结果。  

如何评估 Microsoft 安全 Copilot? 哪些指标用于度量性能? 

安全 Copilot 在发布之前接受了大量测试。 测试包括红队测试,即对产品进行严格测试以识别故障模式和场景的做法,这些模式和方案可能导致 Microsoft 安全 Copilot 做出或说出超出其预期用途或不支持 Microsoft AI 原则的内容。

发布后,用户反馈对于帮助 Microsoft 改进系统至关重要。 你可以选择在每次收到来自 Microsoft 安全 Copilot 输出时提供反馈。 如果响应不准确、不完整或不清楚,请使用“非目标”和“报告”按钮来标记任何令人反感的输出。 还可以使用“确认”按钮确认响应何时有用且准确。 这些按钮显示在每个安全 Copilot 响应的底部,你的反馈将直接传递给 Microsoft,以帮助我们提高平台的性能。

安全 Copilot 有哪些限制? 用户在使用系统时如何尽量减少 Microsoft 安全 Copilot 限制的影响? 

  • 抢先体验计划旨在让客户有机会提前访问 Microsoft 安全 Copilot,并提供有关平台的反馈。 预览功能不适用于生产用途,其功能可能有限。 

  • 与任何 AI 支持的技术一样,安全 Copilot 并不能做到万无一失。。 但是,可以通过使用平台内置的反馈工具提供观察结果来帮助改进响应。  

  • 如果未通过用户输入或插件为系统提供最新的数据,则系统可能会生成过时的响应。 若要获得最佳结果,请验证是否启用了正确的插件。

  • 该系统旨在响应与安全域相关的提示,例如事件调查和威胁情报。 安全范围之外的提示可能会导致响应不够准确和全面。

  • 安全 Copilot 可能会生成代码或在响应中包含代码,如果不谨慎使用,这些代码可能会暴露敏感信息或漏洞。 响应可能看起来合理,但实际上在语义上或语法上可能不正确,或者可能无法准确反映开发人员的意图。 如果编写代码时使用的材料不是独立创建的,用户都应采取与编写任何代码相同的预防措施,包括确保其适用性的预防措施。 其中包括严格的测试、IP 扫描和安全漏洞检查。

  • 与公共代码匹配:安全 Copilot 能够以概率方式生成新代码。 虽然它可能生成与训练集中代码匹配的代码的概率很低,但 Microsoft 安全 Copilot 建议可能包含一些与训练集中代码匹配的代码片段。 如果编写代码时使用的材料不是独立创建的,用户应始终采取与编写任何代码相同的预防措施,包括确保其适用性的预防措施。 其中包括严格的测试、IP 扫描和安全漏洞检查。

  • 系统可能无法处理长提示,例如数十万个字符。

  • 平台的使用可能受使用限制或容量限制的约束。 即使使用较短的提示,选择插件、进行 API 调用、生成响应并在向用户显示之前对其进行检查,也可能需要花费时间 (长达几分钟) ,并且需要高 GPU 容量。 

  • 为了尽量减少错误,建议用户遵循提示指南。 

哪些操作因素和设置允许有效和负责任地使用 Microsoft 安全 Copilot? 

  • 你可以使用日常字词来描述你想要 Microsoft 安全 Copilot 执行的操作。 例如:

    • “告诉我我的最新事件”或“汇总此事件”。
  • 当系统生成响应时,你就可以在流程日志中看到系统正在采取的步骤,从而有机会对其流程和来源进行双重检查。  

  • 在提示形成过程中,可以随时取消、编辑、重新运行或删除提示。 

  • 你可以提供有关响应质量的反馈,包括向 Microsoft 报告任何无法接受的内容。 

  • 可以固定、共享和导出响应 -- 帮助安全专业人员协作和共享观察结果。 

  • 管理员可以控制连接到 Microsoft 安全 Copilot 的插件。   

  • 可以选择、个性化和管理与 Microsoft 安全 Copilot 一起使用的插件。

  • 安全 Copilot 创建的提示簿,这些是按顺序运行以完成特定工作流的一组提示。

Microsoft 如何为安全 Copilot 实现负责任 AI?

在 Microsoft,我们认真对待负责任 AI 的承诺。 安全 Copilot 是根据我们的 AI 原则开发的。 我们正在与 OpenAI 合作,以提供鼓励负责任使用的体验。 例如,我们已经并将继续与 OpenAI 合作开展基础模型工作。 我们以人为本设计了 Microsoft 安全 Copilot 用户体验。 我们开发了一个安全系统,旨在通过有害内容注释、操作监视和其他安全措施来缓解故障并防止滥用。 仅限邀请的抢先体验计划也是我们实现负责任 AI 的一种方式。 我们正在从具有 Copilot for Security 早期访问权限的用户那里获取用户反馈,以便在该工具广泛可用之前对其进行改进。

负责任 AI 是一个历程,我们将在此过程中不断改进我们的系统。 我们致力于使我们的 AI 更加可靠和可信,你的反馈将帮助我们做到这一点。

是否遵守欧盟 AI 法案?

我们致力于遵守欧盟 AI 法案。我们在定义、发展和实现负责任 AI 标准和内部治理方面所做的多年努力增强了我们的就绪性。

在 Microsoft,我们认识到合规性作为 AI 技术可信度和可靠性的基石的重要性。 我们致力于通过设计创建负责任的 AI。 我们的目标是开发和部署对社会产生有益的影响并赢得社会信任的 AI。

此工作遵循一系列核心原则:公平性、可靠性和安全性、隐私和安全性、包容性、透明度和责任性。 Microsoft 负责任 AI 标准采用这六项原则,并将其分解为我们提供的 AI 的目标和要求。

我们的负责任 AI 标准考虑了监管建议及其演变,包括欧盟 AI 法案的初始建议。我们在 AI 领域(如 Microsoft Copilot 和 Microsoft Azure OpenAI 服务)中开发了最新的产品和服务,以符合我们的负责任 AI 标准。 随着《欧盟 AI 法案》的最终要求得到更详细的定义,我们期待与决策者合作,确保规则的可行实施和应用,证明我们的合规性,并与客户和其他利益干系人互动,以支持整个生态系统的合规性。