你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

快速入门:Azure AI Content Safety Studio

本文会介绍如何开始在浏览器中通过内容安全工作室使用 Azure AI 内容安全服务。

注意

Content Safety Studio 提供的某些示例可能包含攻击性内容。 示例图像默认已进行模糊处理。 建议用户自行决定是否查看。

先决条件

  • 一个 Azure 帐户。 如果没有帐户,可以免费创建一个帐户
  • Content Safety Azure 资源。
  • 将“认知服务用户”角色分配给你的帐户。 转到 Azure 门户,导航到内容安全资源或 Azure AI 服务资源,在左侧导航栏中选择“访问控制”,然后选择“+ 添加角色分配”,选择“认知服务用户”角色,选择需要分配此角色的帐户成员,然后查看并分配。 分配可能需要几分钟才能生效。
  • 使用 Azure 订阅和 Content Safety 资源登录到 Content Safety Studio

重要

必须将“认知服务用户”角色分配给 Azure 帐户以使用工作室体验。 转到 Azure 门户,导航到内容安全资源或 Azure AI 服务资源,在左侧导航栏中选择“访问控制”,然后选择“+ 添加角色分配”,选择“认知服务用户”角色,选择需要分配此角色的帐户成员,然后查看并分配。 分配可能需要几分钟才能生效。

分析文本内容

审查文本内容”页提供快速试用文本审查的功能。

“分析文本”面板的屏幕截图。

  1. 选择“审查文本内容”面板。
  2. 将文本添加到输入字段,或从页面上的面板中选择示例文本。

    提示

    文本大小和粒度

    有关最大文本长度限制,请参阅输入要求

  3. 选择“运行测试”。

该服务返回检测到的所有类别,以及每个类别的严重性级别(0-安全、2-低、4-中、6-高)。 它还会根据配置的筛选器返回二进制的“已接受”/“已拒绝”结果。 使用“配置筛选器”选项卡中的矩阵为每个类别设置允许/禁止的严重性级别。 然后,可以再次运行文本以查看筛选器的效果。

通过“使用阻止列表”选项卡,可以创建、编辑阻止列表并将其添加到审查工作流。 如果在运行测试时启用了阻止列表,则会在“结果”下获取“阻止列表检测”面板。 该面板会报告阻止列表的任何匹配项。

检测用户输入攻击

通过“提示盾牌”面板,可以试用用户输入风险检测。 检测用户提示,旨在激怒生成式 AI 模型展示它训练的行为,以避免或打破系统消息中设置的规则。 这些攻击可以是复杂的角色扮演,也可以是对安全目标的微妙颠覆。

Content Safety Studio 的屏幕截图,其中选择了 Prompt Shields 面板。

  1. 选择“提示盾牌”面板。
  2. 选择页面上的示例文本,或输入自己的内容进行测试。 还可以上传 CSV 文件以执行批量测试。
  3. 选择“运行测试”。

服务会返回每个样本的风险标记和类型。

有关详细信息,请查看提示盾牌概念指南

分析图像内容

审查图像内容”页提供快速试用图像审查的功能。

“分析图像”面板的屏幕截图。

  1. 选择“审查图像内容”面板。
  2. 从页面上的面板中选择示例图像,或上传自己的图像。 提交图像的最大大小为 4MB,图像尺寸必须介于 50x50 像素到 2048x2048 像素之间。 图像可以是 JPEG、PNG、GIF、BMP、TIFF 或 WEBP 格式。
  3. 选择“运行测试”。

该服务返回检测到的所有类别,以及每个类别的严重性级别(0-安全、2-低、4-中、6-高)。 它还会根据配置的筛选器返回二进制的“已接受”/“已拒绝”结果。 使用右侧“配置筛选器”选项卡中的矩阵为每个类别设置允许/禁止的严重性级别。 然后,可以再次运行文本以查看筛选器的效果。

查看和导出代码

可以使用“分析文本内容”或“分析图像内容”页中的“查看代码”功能查看和复制示例代码,其中包括严重性筛选、阻止列表和审查函数的配置。 然后,你可以自行部署代码。

“查看代码”窗口的屏幕截图。

监视联机活动

使用“监视联机活动”面板可以查看 API 使用情况和趋势。

“监视”面板的屏幕截图。

你可以选择要监视的媒体类型。 还可以通过选择“显示以下时间段内的数据:__”来指定要检查的时间范围。

在“每个类别的拒绝率”图表中,还可以调整每个类别的严重性阈值。

严重性阈值表的屏幕截图。

如果要根据“十大禁用字词”图表更改某些字词,也可以编辑阻止列表。

管理资源

若要查看资源详细信息(如名称和定价层),请选择 Content Safety Studio 主页右上角的“设置”图标,然后选择“资源”选项卡。如果有其他资源,也可以在此处切换资源。

管理资源的屏幕截图。

清理资源

如果想要清理并删除 Azure AI 服务资源,可以删除资源或资源组。 删除资源组同时也会删除与之相关联的任何其他资源。

下一步

接下来,通过 REST API 或客户端 SDK 开始使用 Azure AI 内容安全,以便可以将服务无缝集成到应用程序中。