Delen via


Schadecategorieën in Azure AI Content Safety

In deze handleiding worden alle schadecategorieën en beoordelingen beschreven die door Azure AI Content Safety worden gebruikt om inhoud te markeren. Zowel tekst- als afbeeldingsinhoud maken gebruik van dezelfde set vlaggen.

Categorieën schade

Inhoudsveiligheid herkent vier verschillende categorieën aantootgevende inhoud.

Categorie Beschrijving API-term
Haat en billijkheid Haat en billijkheidsschade verwijst naar inhoud die discriminerende taal aanvalt of gebruikt met verwijzing naar een persoon of identiteitsgroep op basis van bepaalde differentiërende kenmerken van deze groepen.

Dit omvat (maar is niet beperkt tot):
  • Ras, etniciteit, nationaliteit
  • Genderidentiteitsgroepen en expressies
  • Seksuele geaardheid
  • Godsdienst
  • Persoonlijk uiterlijk en lichaamsgrootte
  • Status van handicap
  • Intimidatie en pesten
Hate
Seksueel Seksueel beschrijft taal met betrekking tot anatomische organen en geslachtsdelen, romantische relaties en seksuele handelingen, handelingen die worden weergegeven in erotische of genegenheidsvoorwaarden, waaronder degenen die zijn afgebeeld als een aanval of een gedwongen seksuele gewelddadige daad tegen de wil van een. 

 Dit omvat, maar is niet beperkt tot:
  • Vulgar-inhoud
  • Prostitutie
  • Naaktheid en pornografie
  • Misbruik
  • Kinderuitbuiting, kindermisbruik, kinderverzorging
Sexual
Geweld Geweld beschrijft taal met betrekking tot fysieke acties die bedoeld zijn om iemand of iets te kwetsen, verwonden, beschadigen of doden; beschrijft wapens, wapens en gerelateerde entiteiten.

Dit omvat, maar is niet beperkt tot:
  • Wapens
  • Pesten en intimideren
  • Terroristische en gewelddadige extremist
  • Stalking
Violence
Zelfschade Zelfbeschadiging beschrijft taal met betrekking tot fysieke acties die bedoeld zijn om opzettelijk pijn te doen, gewond te raken, het lichaam te beschadigen of zichzelf te doden.

Dit omvat, maar is niet beperkt tot:
  • Eetstoornissen
  • Pesten en intimideren
SelfHarm

Classificatie kan meerdere labels hebben. Wanneer een tekstvoorbeeld bijvoorbeeld het model voor tekstbeheer doorloopt, kan het worden geclassificeerd als seksuele inhoud en geweld.

Ernstniveaus

Elke schadecategorie die de service toepast, wordt ook geleverd met een classificatie op ernstniveau. Het ernstniveau is bedoeld om de ernst aan te geven van de gevolgen van het weergeven van de gemarkeerde inhoud.

Tekst: De huidige versie van het tekstmodel ondersteunt de volledige ernstschaal van 0-7. De classificatie detecteert alle ernstpunten in deze schaal. Als de gebruiker opgeeft, kan de ernst worden geretourneerd in de ingekorte schaal van 0, 2, 4 en 6; elke twee aangrenzende niveaus worden toegewezen aan één niveau.

  • [0,1] ->0
  • [2,3] ->2
  • [4,5] ->4
  • [6,7] ->6

Afbeelding: De huidige versie van het afbeeldingsmodel ondersteunt de ingekorte versie van de volledige ernstschaal van 0-7. De classificatie retourneert alleen ernst 0, 2, 4 en 6.

  • 0
  • 2
  • 4
  • 6

Afbeelding met tekst: De huidige versie van het multimodale model ondersteunt de volledige ernstschaal van 0-7. De classificatie detecteert alle ernstpunten in deze schaal. Als de gebruiker opgeeft, kan de ernst worden geretourneerd in de ingekorte schaal van 0, 2, 4 en 6; elke twee aangrenzende niveaus worden toegewezen aan één niveau.

  • [0,1] ->0
  • [2,3] ->2
  • [4,5] ->4
  • [6,7] ->6

Tekstinhoud

Waarschuwing

Het tabblad Ernstdefinities in dit document bevat voorbeelden van schadelijke inhoud die voor sommige lezers kan storen.

Afbeeldingsinhoud

Waarschuwing

Het tabblad Ernstdefinities in dit document bevat voorbeelden van schadelijke inhoud die voor sommige lezers kan storen.

Multimodale inhoud (afbeelding met tekst)

Waarschuwing

Het tabblad Ernstdefinities in dit document bevat voorbeelden van schadelijke inhoud die voor sommige lezers kan storen.

Volgende stappen

Volg een quickstart om aan de slag te gaan met Azure AI Content Safety in uw toepassing.