创建负责任的生成式人工智能解决方案
微软的负责任生成式 AI 指南被设计为切实可行。 它定义了一个四个阶段过程,用于在使用生成模型时开发和实现负责任的 AI 计划。 过程中的四个阶段是:
- 确定与计划的解决方案相关的潜在危害。
- 测量解决方案生成的输出中是否存在这些危害。
- 在多层面缓解解决方案中的危害,以最大程度地减少其存在和影响,并确保透明地与用户沟通潜在风险。
- 通过定义并遵循部署和运营准备计划,对解决方案负责。
这些阶段应以负责任的 AI 原则为指导。 Microsoft将这些原则分为六个存储桶。
负责任的 AI 原则
软件工程师必须考虑其软件对用户和社会的影响:包括对其责任使用的注意事项。 当应用程序与人工智能一起生成时,由于 AI 系统的工作方式和决策的性质,这些注意事项尤其重要:通常基于概率模型,这些模型又依赖于训练它们的数据。
AI 解决方案的类似人类性质在使应用程序用户友好方面具有显著优势,但也可能导致用户对应用程序做出正确决策的能力产生极大的信任。 通过错误预测或滥用 AI 功能对个人或组造成损害的可能性是一个主要问题,构建支持 AI 的解决方案的软件工程师应适当考虑降低风险,并确保公平、可靠性和充分保护免受伤害或歧视。
让我们讨论一些在Microsoft采用的负责任的 AI 的核心原则。
公平性
AI 系统应该公平对待所有人。 例如,假设你创建了一个机器学习模型来支持银行的贷款审批申请。 该模型应预测贷款是否应获得批准,而不纳入基于性别、种族或其他因素的任何偏见,这些偏见可能导致特定申请人群体产生不公平的优势或劣势。
机器学习系统的公平性是正在进行的研究的一个高度活跃的领域,一些软件解决方案用于评估、量化和缓解机器学习模型中的不公平性。 但是,仅工具就不足以确保公平性。 从应用程序开发过程开始考虑公平性;仔细查看训练数据,以确保它代表所有可能受影响的主题,并在整个开发生命周期内评估用户群体的子部分的预测性能。
可靠性和安全性
AI 系统应可靠且安全地执行。 例如,考虑自动驾驶汽车的基于 AI 的软件系统;或诊断患者症状并推荐处方的机器学习模型。 这类系统的不可靠可能导致人类生命面临重大风险。
与任何软件一样,基于 AI 的软件应用程序开发必须受到严格的测试和部署管理流程的约束,以确保它们在发布前按预期工作。 此外,软件工程师需要考虑到机器学习模型的概率性,并在评估预测的置信度分数时应用适当的阈值。
隐私和安全
AI 系统应该保护并尊重隐私。 AI 系统所基于的机器学习模型依赖于大量数据,这些数据可能包含必须保持私密的个人详细信息。 即使在训练模型并且系统处于生产阶段,它们也会使用新数据进行预测或采取可能受隐私或安全问题约束的作:因此,必须实施适当的安全措施来保护数据和客户内容。
包容性
AI 系统应为所有人提供支持并吸引人。 无论身体能力、性别、性取向、种族或其他因素如何,AI 都应为社会的所有部分带来好处。
优化包容性的一种方法是确保应用程序的设计、开发和测试包括尽可能多样化的人员群体的输入。
透明度
AI 系统应该可以理解。 用户应充分了解系统的目的、工作原理以及可能预期的限制。
例如,当 AI 系统基于机器学习模型时,通常应该让用户了解可能影响其预测准确性的因素,例如用于训练模型的事例数,或对其预测影响最大的特定特征。 还应共享有关预测置信度分数的信息。
当 AI 应用程序依赖于个人数据时,例如面部识别系统,用于获取人员图像来识别它们;应向用户明确说明其数据的使用和保留方式,以及谁有权访问这些数据。
问责
握手图解。
人们应该对 AI 系统负责。 尽管许多 AI 系统似乎都自主运行,但最终是开发人员负责训练和验证他们使用的模型,并定义了基于模型预测做出决策的逻辑,以确保整个系统满足责任要求。 为了帮助实现此目标,基于 AI 的解决方案的设计人员和开发人员应在治理和组织原则的框架内工作,以确保解决方案符合明确定义的负责任的法律标准。
小提示
有关Microsoft负责任的 AI 原则的详细信息,请参阅 Microsoft负责任的 AI 网站。