你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Azure AI Content Safety 中的危害类别

本指南介绍了 Azure AI 内容安全用于标记内容的所有危害类别和分级。 文本和图像内容使用相同的标志集。

有害类别

Content Safety 可识别四种不同类别的令人反感的内容。

类别 说明
仇恨和公平 仇恨和公平相关的伤害指的是基于个人或身份群体的某些区别性属性(包括但不限于种族、民族、国籍、性别认同和表现、性取向、宗教、移民身份、残疾、个人外貌和体型)攻击或运用贬义性或歧视性语言的任何内容。

公平涉及确保 AI 系统公平对待所有群体,而不会加剧现有的社会不平等。 与仇恨言论类似,公平相关的伤害取决于对身份群体的不同待遇。
性指的是与以下方面相关的语言:解剖器官和生殖器、恋爱关系、以色情或情爱用语描述的行为、怀孕、身体上的性行为(包括被描述为攻击或违背个人意愿的强迫性暴力行为的行为)、卖淫、色情和虐待。
暴力 暴力指的是与旨在伤害、损伤、损害或杀害某人或某物的肢体动作相关的语言,以及与武器、枪支和相关实体(例如,制成品、协会、法律等)相关的语言。
自残 自残指的是与故意伤害、损伤、损害某人身体或自杀的身体行为相关的语言。

分类可以是多标记的。 例如,通过文本审查模型运行文本示例时,可以将其归类为性内容和暴力。

严重性级别

该服务适用的每种伤害类别还带有严重性评级。 严重性级别旨在表明,如果显示了已标记的内容,则造成的后果的严重性有多高。

文本:文本模型的当前版本支持完整的 0-7 严重度。 分类器按照此程度检测所有严重性。 如果用户已指定,它可以返回修整标度 0、2、4 和 6 的严重性;每两个相邻级别映射到单个级别。

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

图像:当前版本的图像模型支持完整 0-7 严重性标度的修整版本。 分类器仅返回严重性 0、2、4 和 6;每两个相邻的级别映射到单个级别。

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

文本内容

警告

本文档中的严重性定义选项卡包含可能对某些读者造成干扰的有害内容示例。

图像内容

警告

本文档中的严重性定义选项卡包含可能对某些读者造成干扰的有害内容示例。

后续步骤

遵照快速入门的说明,开始在应用程序中使用 Azure AI 内容安全。