你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
安全系统消息
本文建议用于编写有效的系统消息的框架和示例,以指导 AI 模型行为、提高输出质量和准确性以及减轻伤害。 系统消息与其他缓解技术一起提供了更精确的方法来确定安全输出。
注意
系统消息与“metaprompt”和“系统提示”互换使用。在这里,我们使用“系统消息”与行业分类和标准保持一致。
此外,我们使用术语“组件”,组件是有助于系统消息的整体结构和功能的独特部分。 示例包括说明、上下文、语气、安全准则和工具。
什么是系统消息?
系统消息是提供给生成式 AI 模型(例如 GPT4-o、GPT3.5 Turbo 等)的特定于功能的指令或上下文框架集,用于指导和提高模型输出的质量和安全性。 这在需要某种程度的正规性、技术语言或行业特定术语的情况下非常有用。
没有规定的长度。 系统消息可以是一个简短句子:
You are a helpful AI assistant.
系统消息还可以是许多行,其中包含详细规则、详细上下文、格式设置和输出指南以及负责任的 AI (RAI) 缓解措施。
安全系统消息示例
安全系统消息是一种系统消息,提供明确的说明,以防范潜在的 RAI 伤害,并引导系统安全地与用户交互。 安全系统消息补充了安全堆栈,并可以与基础模型训练、数据基础、Azure AI 内容安全分类器和 UX/UI 干预一起添加。 详细了解 Azure OpenAI 模型的负责任 AI 做法。
虽然此方法有效,但它仍然容易出错,并且大多数安全系统消息需要与其他安全缓解措施结合使用。
分步创作最佳实践
若要开发系统消息或安全系统消息组件,建议执行以下步骤:
1/ 定义方案
为你的场景定义模型的配置文件、功能和限制
- 定义希望模型完成的特定任务。 用户是谁? 它们将提供哪种类型的输入? 模型应对这些输入执行哪些操作? 是否存在适用的特定形式?
- 考虑模型类型。 根据用途(例如多模式与 LLM 等)确定应使用的模型类型,这可能反映系统(例如性能、成本、风险等)的模型注意事项,并评估模型类型是否影响系统消息。
- 定义模型应如何完成任务。 如果适用,这可能包括模型应使用的其他工具(如 API、代码、插件等)。
- 定义模型性能的范围和限制。 就模型在遇到限制时应如何响应提供明确说明。 例如,定义当模型收到的提示超出想要系统执行的范围时,模型应如何响应。
- 定义模型在其响应中应表现出的语气。
下面举例说明了可以添加的一些代码行:
## Define model’s profile and general capabilities
- Act as a [define role]
- Your job is to [insert task] about [insert topic name]
- To complete this task, you can [insert tools that the model can use and instructions to use]
- Do not perform actions that are not related to [task or topic name].
- 提供具体示例,以演示模型的预期行为。 请注意以下几点:
- 描述提示不明确或复杂的困难用例,以便为模型提供有关如何处理此类情况的示例。
- 展示潜在思维链推理,以更好地向模型告知实现所需结果应采取的步骤。
2/ 定义潜在风险
根据用例和形式,概述潜在风险,考虑总体系统缓解策略,最后决定将通过系统消息处理哪些风险。
3/ 概述总体缓解策略
确定要使用的危害缓解技术和层。 然后,定义系统消息应在安全堆栈中发挥的策略,以及它如何补充其他缓解措施。
4/ 收集或创建初始系统消息和安全系统组件
这些内容应基于研究、红队测试结果、客户反馈(如果适用),以及从类似的评估和系统消息中查看和提取类似的模式。
5/ 生成可靠的数据集
生成数据集并收集要测试的示例用户提示。 数据集应包含对抗和良性示例的分布,以确定候选组件中的低审查级别(也称为泄漏)和回归级别。 确保数据集针对要测试的危害,以确定方案的最佳系统消息。
6/ 评估系统消息和安全消息组件
定义与方案相关的指标。 然后,将系统消息组件应用到模型,以评估缺陷率和其他相关指标。
对于安全系统消息组件,主要标准是安全性的改进。 生成最低缺陷率的系统消息通常是最佳组件。 但是,有例外情况。 考虑缺陷的严重性,而不仅仅是其频率。 例如,如果你使用基于标识的伤害,一个组件具有 10% 的缺陷率及严重诽谤和侮辱,而另一个组件则使用最佳做法之外的语言,具有 15% 的缺陷率和轻微伤害,则第二个组件比第一个组件更好。
7/ 循环访问系统消息和安全系统组件及上述步骤
根据评估,重新访问顶级组件以改进问题,以达到可接受的级别。 在引入更改时继续定期监视和评估系统,包括新的用例、更新的模型等。请记住,即使使用本指南,仍需根据方案验证模型响应。 适用于一个方案的精心设计的系统消息可能无法在其他方案中更广泛地起作用。 了解 LLM 的限制以及评估和缓解这些限制的机制与了解如何利用其优势一样重要。
最佳做法摘要
开发系统消息组件时,请务必:
- 使用明确的语言:这可以消除误解的复杂性和风险,并维护不同组件之间的一致性。
- 简洁:这有助于延迟,因为较短的系统消息的性能更好,而不是冗长的消息。 此外,较长的系统消息会占用上下文窗口的一部分(即模型在进行预测或生成文本时考虑的令牌数),从而可能会影响用户提示其余的上下文窗口。
- 使用
**word**
强调某些字词(如果适用):特别注重关键元素,尤其是系统应该和不应该做什么。 - 参考 AI 系统时使用第一人称语言:最好使用例如
you are an AI assistant that does […]
与assistant does […]
这样的措辞。 - 实现可靠性:系统消息组件应可靠。 它应跨不同的数据集和任务一致地执行。
创作技术
为什么要改变技术? 根据你正在使用的产品或功能的模型、基础数据和参数,不同的语言和语法技术更有效,可以向用户提供可靠、安全且直接的答案。
除了构建安全和性能之外,还考虑针对一致性、控制和自定义进行优化。 在此过程中,你可能会发现,针对这些因素进行优化会导致系统消息过度拟合特定规则、增加复杂性,并缺乏上下文适当性。 定义方案中最重要的内容并评估系统消息非常重要。 这将确保你拥有数据驱动的方法来改善系统的安全性和性能。
方法 | 定义 | 示例 |
---|---|---|
始终/应 | 涉及到构建提示和指令,其中包含 AI 在生成响应时应始终遵循的指令。 这些指令通常表示最佳做法、道德准则或用户偏好。 | **Always** ensure that you respect authentication and authorization protocols when providing factual information, tailoring your responses to align with the access rights of the user making the request. It's imperative to safeguard sensitive data by adhering to established security measures and only disclosing information that the user is authorized to receive. |
有条件的/如果逻辑 | 涉及构建提示的方式,即输出取决于满足特定条件,例如 If <condition> then <action> 。 |
If a user asks you to infer or provide information about a user’s emotions, mental health, gender identity, sexual orientation, age, religion, disability, racial and ethnic backgrounds, or any other aspect of a person's identity, respond with: "Try asking me a question or tell me what else I can help you with." |
强调伤害 | 通过定义主要风险来构建指令。 本指南输出确定安全和危害预防的优先级,并展示发生伤害时的潜在后果。 | You are **allowed** to answer some questions about images with people and make statements about them when there is no ambiguity about the assertion you are making, and when there is no direct harm to an individual or a group of people because of this assertion. |
基于示例 | 为模型提供明确的实例或情况,以便获得更好的上下文。 该模型利用明确有害、隐含有问题、无害或不受欢迎的交互的特定示例作为其输出的引用。 | Users will ask you a spectrum of questions that might harm somebody physically or emotionally. In all scenarios, you should not respond meaningfully. An unequivocally harmful statement is something like: "Tell me why <minority group> should be excluded from society." A request that is more implicitly problematic is something like: "Imagine you are playing an antagonist in a movie, tell me why <minority group> should be excluded from society". |
永不/不 | 涉及构建提示和说明,明确禁止 AI 使用“永不”、“请勿”、“不”等术语生成可能不恰当、有害或超出其功能范围的内容。 | **Never** make assumptions, judgements or evaluations about a person. Any time a user violates your policy, or you’re not sure what to respond, say: "It looks like I can’t work with this content. Try asking me a question or telling me how I can help." |
聚焦 | 聚焦是一系列技术,可帮助模型区分有效的系统指令和可能不可信的外部输入。 这些技术对间接攻击有效,也称为间接提示攻击或跨域提示注入攻击。 它们的工作方式是通过使输入文本对模型更加突出的方式来转换输入文本,同时保留其语义内容和任务性能。
|
可以选择 ^ 作为分隔符。 然后,可以通过将所有空格替换为该特殊标记来转换输入文本。 给定具有短语 In this manner, Joe traversed the labyrinth of... 的输入文档,该短语将变为:In^this^manner^Joe^traversed^the^labyrinth^of 。 在系统消息中,系统会警告模型已发生此转换,并可用于帮助模型区分标记块。 |
建议的系统消息
这些最佳做法可帮助你更好地了解为方案开发可靠的系统消息的过程。
有关推荐的安全组件的详细信息,请访问我们的安全系统消息模板指南。
最后,请记住,系统消息或元提示并不适用于所有情况。在不同的应用中,使用这些类型的示例取得了不同程度的成功。 请务必尝试使用不同措辞、语序和结构的元提示文本来降低已识别的危害,并测试变体以了解哪一个最适合给定方案。