Azure AI 內容安全性中的傷害類別

本指南說明 Azure AI 內容 保管庫 用來標記內容的所有傷害類別和評等。 文字和影像內容都使用同一組旗標。

傷害類別

內容安全性可辨識四種不同的令人反感內容類別。

類別 描述
仇恨和公平 仇恨和公平相關的傷害是指攻擊或使用貶低或歧視性語言的任何內容,以參考這些群體的某些不同屬性,包括但不限於種族、種族、國籍、性別認同和表達、性取向、宗教、移民身份、能力狀態、個人外觀和身體大小。

公平性涉及確保 AI 系統公平對待所有人群,而不會對現有的社會不平等做出貢獻。 與仇恨言論類似,公平相關的傷害取決於不同對待身份群體。
色情 性描述與解剖器官和生殖器、浪漫關係、以色情或深情術語描繪的行為、懷孕、身體性行為,包括那些被描繪成攻擊或強迫性暴力行為,反對自己意志、賣淫、色情和虐待的行為。
暴力 暴力描述與旨在傷害、傷害、傷害或殺害某人或某物的身體行動相關的語言:描述武器、槍支和相關實體,例如製造、協會、立法等。
自殘 自我傷害描述了與故意傷害、傷害、傷害他人身體或自殺的身體行為相關的語言。

分類可以為多標籤的。 例如,當文字範例通過文字調節模型時,可以同時分類為色情內容和暴力內容。

嚴重性層級

服務套用的每個傷害類別也會隨附嚴重性等級評等。 嚴重性層級旨在指出顯示標記內容結果的嚴重性。

文字:目前版本的文字模型支援完整的 0-7 嚴重性級別。 分類器會沿著這個規模偵測到所有嚴重性。 如果使用者指定,它可以傳回修剪后小數字數 0、2、4 和 6 的嚴重性;每兩個相鄰層級都會對應至單一層級。

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

映射:映射模型的目前版本支援完整 0-7 嚴重性調整的修剪版本。 分類器只會傳回嚴重性 0、2、4 和 6;每兩個相鄰層級都會對應至單一層級。

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

文字內容

警告

本檔中的 [嚴重性定義 ] 索引標籤包含可能對某些讀者造成干擾之有害內容的範例。

映像內容

警告

本檔中的 [嚴重性定義 ] 索引標籤包含可能對某些讀者造成干擾之有害內容的範例。

下一步

請遵循快速入門,開始在應用程式中使用 Azure AI 內容 保管庫 ty。