你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

治理 AI

本文可帮助你建立用于治理 AI 的组织流程。 使用本指南将 AI 风险管理集成到更广泛的风险管理策略中,从而创建 AI、网络安全和隐私治理的统一方法。 此过程遵循 NIST 人工智能风险管理框架(AI RMF)NIST AI RMF Playbook。 该指南与 CAF 治理中的框架保持一致。

评估 AI 组织风险

AI 风险评估可识别 AI 技术引入组织的潜在风险。 此评估可构建对 AI 系统的信任,并减少意外后果。 必须进行彻底的风险评估,以确保 AI 部署符合组织的价值、风险容忍度和运营目标。 操作方法如下:

  1. 了解 AI 工作负载。 每个 AI 工作负载根据其用途、范围和实现提供独特的风险。 必须阐明每个 AI 工作负载的特定功能、数据源和预期结果,以有效地映射关联的风险。 记录与每个 AI 工作负载相关的任何假设和限制,以建立明确的风险评估边界。

  2. 遵循负责任 AI 原则来识别风险。 负责任的 AI 原则为全面的风险评估提供了结构化框架。 必须根据这些原则评估每个 AI 工作负载,以确定潜在的漏洞和道德问题。 使用下表指导风险识别过程:

    负责任的 AI 原则 定义 风险评估问题
    AI 隐私和安全 AI 工作负荷应尊重隐私并确保安全。 AI 工作负荷会如何处理敏感数据或容易受到安全漏洞的影响?
    可靠和安全 AI 工作负荷应安全可靠地运行。 在哪些情况下,AI 工作负荷可能无法安全运行或产生不可靠的结果?
    公平性 AI 工作负荷应公平对待每个人。 AI 工作负荷会如何导致决策中的不平等待遇或意外偏见?
    包容 AI 工作负荷应具有包容性并可赋能。 在设计或部署 AI 工作负荷时,某些群体会被排除在外或处于不利地位吗?
    透明度 AI 工作负荷应该是可以理解的。 用户可能难以理解或解释 AI 决策的哪些方面?
    问责 应有相关人员对 AI 工作负荷负责。 在开发或使用 AI 的过程中,哪些方面的责任不明或难以确定?
  3. 确定特定的 AI 风险。 风险识别需要系统评估安全、作和道德漏洞。 必须评估每个 AI 工作负载的潜在数据泄露、未经授权的访问、模型操控和滥用方案。 咨询不同部门的利益干系人,以发现技术团队可能忽视的风险,并评估定量影响(财务损失、性能下降)和定性影响(信誉损害、用户信任),以确定组织的风险容忍度。

  4. 识别外部依赖项带来的风险。 外部依赖项引入了需要仔细评估的其他风险向量。 必须评估来自第三方数据源、AI 模型、软件库和 AI 工作负载所依赖的 API 集成的风险。 通过建立明确的策略,确保外部依赖项符合组织隐私、安全性和合规性标准,解决安全漏洞、数据质量问题、外部数据集中的偏见、知识产权冲突和供应商可靠性等潜在问题。

  5. 评估集成风险。 与现有系统集成时,AI 工作负载很少以隔离方式运行并创建新风险。 必须评估 AI 工作负载如何与当前应用程序、数据库和业务流程连接,以确定潜在的故障点。 记录特定的风险,例如 AI 故障影响多个系统的依赖项级联、增加的系统复杂性,使故障排除变得困难、数据格式不兼容、性能瓶颈以及集成点存在安全漏洞,这些漏洞可能会损害整个系统功能。

记录 AI 治理策略

AI 治理策略为组织中负责任的 AI 使用提供结构化框架。 这些政策使 AI 活动符合道德标准、监管要求和业务目标。 必须记录基于组织的风险容忍度解决已识别 AI 风险的策略。 下面是 AI 治理策略示例:

AI 治理策略领域 AI 治理策略建议
确定选择和载入模型的策略 制定选择 AI 模型的策略。策略应概述选择符合组织价值观、能力和成本限制的模型的标准。 评审潜在模型是否符合风险承受能力和预期任务要求。

利用结构化策略载入新模型。正式的模型载入流程可保持模型论证、验证和审批的一致性。 使用沙盒环境进行初始实验,然后在生产目录中验证和评审模型,以避免重复。
制定使用第三方工具和数据的策略 设置第三方工具的控制。第三方工具的审核流程可防范安全性、合规性和一致性风险。 策略应包括使用与外部数据集时的数据隐私、安全和道德标准相关的准则。

定义数据敏感性标准。将敏感数据和公共数据分开对于缓解 AI 风险至关重要。 围绕数据处理和分离制定策略。

定义数据质量标准。“黄金数据集”为 AI 模型测试和评估提供了可靠的基准。 为数据的一致性和质量制定明确的策略,以确保高绩效和值得信赖的输出。
制定用于维护和监控模型的策略 按用例指定重新训练频率。频繁的重新训练可提高高风险 AI 工作负荷的准确性。 制定相关准则,考虑每种模式的使用情况和风险水平,特别是医疗保健和金融等行业。

监控性能下降。随着时间的推移,监控模型性能有助于在影响结果之前发现问题。 记录基准,如果模型性能下降,则启动重新训练或评审流程。
制定监管合规策略 遵守区域法律要求。了解区域法律可确保 AI 运营在各地都保持合规。 研究每个部署区域的适用法规,如数据隐私法、道德标准和行业法规。

制定面向特定区域的策略。根据区域因素调整 AI 策略有助于遵守当地标准。 策略可能包括语言支持、数据存储协议和文化适应。

使 AI 适应区域变化。AI 工作负荷的灵活性允许针对具体地点进行功能调整。 对于全局业务,应记录特定区域的适应性,如本地化训练数据和功能限制。
制定用户行为策略 制定滥用风险缓解策略。预防滥用策略有助于防止有意或无意的伤害。 概述可能出现的滥用情况,并纳入控制措施,如限制功能或滥用检测功能。

设定用户行为准则。用户协议明确了与 AI 工作负荷交互时可接受的行为,从而降低了滥用风险。 起草明确的使用条款,以传达标准并支持负责任的 AI 交互。
制定 AI 集成和替换策略 概述集成策略。集成准则可确保 AI 工作负荷在工作负荷交互期间保持数据的完整性和安全性。 明确技术要求、数据共享协议和安全措施。

规划转换和更换。在用 AI 工作负荷替换旧流程时,转换策略提供了结构。 概述逐步淘汰旧式流程、培训员工以及在整个更改过程中监控性能的步骤。

强制实施 AI 治理策略

实施 AI 治理策略可在整个组织中保持一致且道德的 AI 实践。 应使用自动化工具和手动干预来确保在所有 AI 部署中遵循策略。 操作方法如下:

  1. 尽可能自动执行策略。 自动化强制可减少人为错误,并确保在所有 AI 部署中实现一致的策略应用程序。 自动化提供对策略冲突的实时监视和即时响应,手动进程无法有效地匹配这些冲突。 使用 Azure Policy 和 Microsoft Purview 等平台在 AI 部署中自动强制实施策略,并定期评估自动化可以改善策略遵循情况的区域。

  2. 手动强制实施自动化不足的 AI 策略。 人工执行解决了需要人为判断的复杂场景,并为策略意识提供必要的训练。 人工监督可确保策略适应独特的情况,并维护组织对 AI 治理原则的理解。 为员工提供 AI 风险和合规性培训,以确保他们了解他们在 AI 治理中的作用,定期举办研讨会,使员工对 AI 策略进行更新,并定期进行审核,以监视遵守情况并确定改进领域。

  3. 使用特定于工作负载的治理指南进行有针对性的强制实施。 特定于工作负载的指南解决了不同 AI 部署模式的独特安全性和符合性要求。 此方法可确保策略与每种 AI 工作负荷类型的技术体系结构和风险配置文件保持一致。 使用适用于 Azure 平台服务(PaaS)和 Azure 基础结构(IaaS)上的 AI 工作负载的详细安全指南来管理这些工作负载类型中的 AI 模型、资源和数据。

监控 AI 组织风险

风险监视可识别新兴威胁,并确保 AI 工作负载按预期运行。 持续评估维护系统可靠性,并防止负面影响。 必须建立系统监控,以适应不断变化的环境,并在风险影响运营之前预先解决风险。 操作方法如下:

  1. 制定持续风险评估程序。 定期风险评估提供对新兴威胁和系统降级的早期检测。 必须创建结构化评审流程,让整个组织中的利益干系人参与,以评估更广泛的 AI 影响并保持全面的风险意识。 为高风险 AI 工作负载和低风险系统的年度评估安排季度风险评估,并制定响应计划,这些计划概述了不同风险方案的具体作,以便在出现问题时实现快速缓解。

  2. 制定全面的度量计划。 结构化度量计划可确保跨所有 AI 工作负载进行一致的数据收集和分析。 必须定义明确的数据收集方法,这些方法将操作指标的自动日志记录与用户和利益干系人的调查和面试定性反馈相结合。 根据工作负荷风险级别建立测量频率,专注于对高风险领域进行监视工作,并创建使用度量结果来优化风险评估和改进监视过程的反馈循环。

  3. 系统地量化和限定 AI 风险。 均衡的风险度量要求量化指标和定性指标,这些指标与每个工作负荷的特定用途和风险配置文件保持一致。 必须选择适当的定量指标,例如错误率、准确性分数和性能基准,以及定性指标,包括用户反馈、道德问题以及利益干系人满意度。 根据行业标准和法规要求对性能进行基准测试,以跟踪随时间推移的 AI 可信度、有效性和合规性。

  4. 一致地记录和报告度量结果。 系统的文档和报告增强了整个组织的透明度和支持明智的决策。 必须创建标准化报表,用于汇总关键指标、重大发现以及监视活动期间检测到的任何异常。 通过定期简报与相关利益干系人分享这些见解,并使用调查结果来优化风险缓解策略、更新治理策略和改进未来的 AI 部署。

  5. 建立独立的评审程序。 独立评审提供内部团队可能因为熟悉或偏见而错过的客观评估。 必须使用外部审核员或非自愿内部审阅者实施定期独立评审,这些审阅者可以客观地评估 AI 风险和合规性。 使用评审结果识别风险评估中的盲点,加强治理策略,并验证当前监视方法的有效性。

后续步骤

AI 风险缓解示例

下表列出了一些常见的 AI 风险,并针对每种风险提供了缓解策略和策略示例。 该表并未列出所有风险。

风险 ID AI 风险 缓解措施 Policy
R001 不符合数据保护法 使用 Microsoft Purview 合规性管理器来评估数据合规性。 必须实现安全开发生命周期,以确保所有 AI 开发和部署都符合数据保护法。
R005 AI 决策缺乏透明度 采用标准化框架和语言,提高 AI 流程和决策的透明度。 必须采用 NIST AI 风险管理框架,并彻底记录所有 AI 模型,以保持所有 AI 模型的透明度。
R006 不准确的预测 使用 Azure API 管理来跟踪 AI 模型指标,以确保准确性和可靠性。 必须利用持续的性能监控和人工反馈来确保 AI 模型预测的准确性。
R007 对抗性攻击 使用 PyRIT 测试 AI 工作负荷的漏洞并加强防御。 必须利用安全开发生命周期和 AI 红队测试来确保 AI 工作负荷免遭对抗性攻击。
R008 内部威胁 使用 Microsoft Entra ID 根据角色和组成员身份来实施严格的访问控制,以便限制内部人员对敏感数据的访问。 必须采用严格的标识和访问管理以及持续监控来缓解内部威胁。
R009 意外成本 使用 Microsoft 成本管理来跟踪 CPU、GPU、内存和存储的使用情况,以确保有效利用资源,并防止成本激增。 必须对资源使用情况进行监控和优化,并自动检测成本超支情况,以管理意外成本。
R010 AI 资源利用不足 监控 AI 服务指标,如请求率和响应时间,以优化使用。 必须利用性能指标和自动可伸缩性来优化 AI 资源的利用率。