共用方式為


Azure AI 內容安全性中的傷害類別

本指南說明 Azure AI 內容安全性用來標示內容的所有損害類別和評等。 文字和影像內容都使用同一組旗標。

傷害類別

內容安全性可辨識四種不同的令人反感內容類別。

類別 描述 API 字詞
仇恨和公平性 仇恨和公平傷害是指攻擊或使用歧視性語言的任何內容,以根據這些群組的特定區分屬性來參考個人或身份群組。

其中包括 (但不限於):
  • 種族、人種、國籍
  • 性別認同群組和運算式
  • 性傾向
  • 宗教
  • 個人外貌和體型
  • 身心障礙狀態
  • 騷擾和欺淩
Hate
兩性 性相關描述與生理器官和生殖器、情愛關係和性行為、以性愛或親暱詞彙描繪行為相關的語言,包括描繪為違反個人意願的侵犯或強迫性暴力行為。 

 其中包括 (但不限於):
  • 粗俗內容
  • 賣淫
  • 裸體和色情
  • 濫用
  • 剝削兒童行為、兒童虐待、兒童性誘拐
Sexual
暴力 暴力描述與旨在傷害、傷害、傷害或殺害某人或某物的身體行動相關的語言:描述武器、槍支和相關實體。

其中包括 (但不限於):
  • 武器
  • 霸淩和恐嚇
  • 恐怖主義和暴力極端主義
  • 跟蹤
Violence
自殘 自殘描述的語言與身體動作相關,其意圖為刻意損害、傷害、毀壞某人的身體或自殺。

其中包括 (但不限於):
  • 飲食失調
  • 霸淩和恐嚇
SelfHarm

分類可以為多標籤的。 例如,當文字範例通過文字調節模型時,可以同時分類為色情內容和暴力內容。

嚴重性層級

服務套用的每個傷害類別也會隨附嚴重性等級評等。 嚴重性層級旨在指出顯示標記內容結果的嚴重性。

文字:目前的文字模型版本支援完整的 0-7 嚴重性級別。 分類器會沿著這個規模偵測到所有嚴重性。 如果使用者指定,分類器可以傳回已調整 0、2、4 和 6 級別中的嚴重性;每兩個相鄰層級都會對應至單一層級。

  • [0,1] ->0
  • [2,3] ->2
  • [4,5] ->4
  • [6,7] ->6

影像:目前的影像模型版本支援完整 0-7 嚴重性級別的已調整版本。 分類器只會傳回嚴重性 0、2、4 和 6。

  • 0
  • 2
  • 4
  • 6

包含文字的圖片:多模式模型的目前版本支援完整的 0-7 嚴重性等級。 分類器會沿著這個規模偵測到所有嚴重性。 如果使用者指定,分類器可以傳回已調整 0、2、4 和 6 級別中的嚴重性;每兩個相鄰層級都會對應至單一層級。

  • [0,1] ->0
  • [2,3] ->2
  • [4,5] ->4
  • [6,7] ->6

文字內容

警告

本文件中的 [嚴重性定義] 索引標籤包含可能會讓某些讀者感到不適的有害內容範例。

映像內容

警告

本文件中的 [嚴重性定義] 索引標籤包含可能會讓某些讀者感到不適的有害內容範例。

多模式 (包含文字的圖片) 內容

警告

本文件中的 [嚴重性定義] 索引標籤包含可能會讓某些讀者感到不適的有害內容範例。

下一步

請遵循快速入門,開始在您的應用程式中使用 Azure AI 內容安全。