你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
快速入门:Azure AI Content Safety Studio
本文会介绍如何开始在浏览器中通过内容安全工作室使用 Azure AI 内容安全服务。
注意
Content Safety Studio 提供的某些示例可能包含攻击性内容。 示例图像默认已进行模糊处理。 建议用户自行决定是否查看。
先决条件
- 一个 Azure 帐户。 如果没有帐户,可以免费创建一个帐户。
- Content Safety Azure 资源。
- 将“认知服务用户”角色分配给你的帐户。 转到 Azure 门户,导航到内容安全资源或 Azure AI 服务资源,在左侧导航栏中选择“访问控制”,然后选择“+ 添加角色分配”,选择“认知服务用户”角色,选择需要分配此角色的帐户成员,然后查看并分配。 分配可能需要几分钟才能生效。
- 使用 Azure 订阅和 Content Safety 资源登录到 Content Safety Studio。
重要
必须将“认知服务用户”角色分配给 Azure 帐户以使用工作室体验。 转到 Azure 门户,导航到内容安全资源或 Azure AI 服务资源,在左侧导航栏中选择“访问控制”,然后选择“+ 添加角色分配”,选择“认知服务用户”角色,选择需要分配此角色的帐户成员,然后查看并分配。 分配可能需要几分钟才能生效。
分析文本内容
“审查文本内容”页提供快速试用文本审查的功能。
- 选择“审查文本内容”面板。
- 将文本添加到输入字段,或从页面上的面板中选择示例文本。
- 选择“运行测试”。
该服务返回检测到的所有类别,以及每个类别的严重性级别(0-安全、2-低、4-中、6-高)。 它还会根据配置的筛选器返回二进制的“已接受”/“已拒绝”结果。 使用“配置筛选器”选项卡中的矩阵为每个类别设置允许/禁止的严重性级别。 然后,可以再次运行文本以查看筛选器的效果。
通过“使用阻止列表”选项卡,可以创建、编辑阻止列表并将其添加到审查工作流。 如果在运行测试时启用了阻止列表,则会在“结果”下获取“阻止列表检测”面板。 该面板会报告阻止列表的任何匹配项。
检测用户输入攻击
通过“提示盾牌”面板,可以试用用户输入风险检测。 检测用户提示,旨在激怒生成式 AI 模型展示它训练的行为,以避免或打破系统消息中设置的规则。 这些攻击可以是复杂的角色扮演,也可以是对安全目标的微妙颠覆。
- 选择“提示盾牌”面板。
- 选择页面上的示例文本,或输入自己的内容进行测试。 还可以上传 CSV 文件以执行批量测试。
- 选择“运行测试”。
服务会返回每个样本的风险标记和类型。
有关详细信息,请查看提示盾牌概念指南。
分析图像内容
“审查图像内容”页提供快速试用图像审查的功能。
- 选择“审查图像内容”面板。
- 从页面上的面板中选择示例图像,或上传自己的图像。 提交图像的最大大小为 4MB,图像尺寸必须介于 50x50 像素到 2048x2048 像素之间。 图像可以是 JPEG、PNG、GIF、BMP、TIFF 或 WEBP 格式。
- 选择“运行测试”。
该服务返回检测到的所有类别,以及每个类别的严重性级别(0-安全、2-低、4-中、6-高)。 它还会根据配置的筛选器返回二进制的“已接受”/“已拒绝”结果。 使用右侧“配置筛选器”选项卡中的矩阵为每个类别设置允许/禁止的严重性级别。 然后,可以再次运行文本以查看筛选器的效果。
查看和导出代码
可以使用“分析文本内容”或“分析图像内容”页中的“查看代码”功能查看和复制示例代码,其中包括严重性筛选、阻止列表和审查函数的配置。 然后,你可以自行部署代码。
监视联机活动
使用“监视联机活动”面板可以查看 API 使用情况和趋势。
你可以选择要监视的媒体类型。 还可以通过选择“显示以下时间段内的数据:__”来指定要检查的时间范围。
在“每个类别的拒绝率”图表中,还可以调整每个类别的严重性阈值。
如果要根据“十大禁用字词”图表更改某些字词,也可以编辑阻止列表。
管理资源
若要查看资源详细信息(如名称和定价层),请选择 Content Safety Studio 主页右上角的“设置”图标,然后选择“资源”选项卡。如果有其他资源,也可以在此处切换资源。
清理资源
如果想要清理并删除 Azure AI 服务资源,可以删除资源或资源组。 删除资源组同时也会删除与之相关联的任何其他资源。
下一步
接下来,通过 REST API 或客户端 SDK 开始使用 Azure AI 内容安全,以便可以将服务无缝集成到应用程序中。