Share via


Schadecategorieën in Azure AI Content Safety

In deze handleiding worden alle schadecategorieën en beoordelingen beschreven die door Azure AI Content Safety worden gebruikt om inhoud te markeren. Zowel tekst- als afbeeldingsinhoud maken gebruik van dezelfde set vlaggen.

Categorieën schade

Inhoudsveiligheid herkent vier verschillende categorieën aantootgevende inhoud.

Categorie Beschrijving
Haat en billijkheid Haat- en eerlijkheidsgerelateerde schade verwijst naar inhoud die een pejoratieve of discriminerende taal aanvalt of gebruikt met verwijzing naar een persoon of identiteitsgroep op basis van bepaalde differentiërende kenmerken van deze groepen, waaronder maar niet beperkt tot ras, etniciteit, nationaliteit, geslachtsidentiteit en expressie, seksuele oriëntatie, religie, immigratiestatus, vaardigheidsstatus, persoonlijk uiterlijk en lichaamsgrootte.

Eerlijkheid houdt zich bezig met het garanderen dat AI-systemen alle groepen mensen rechtvaardig behandelen zonder bij te dragen aan bestaande maatschappelijke onzin. Net als bij haatspraak hangt eerlijkheidsgerelateerde schade af van de verschillende behandeling van identiteitsgroepen.
Seksuele Seksueel beschrijft taal met betrekking tot anatomische organen en geslachtsdelen, romantische relaties, handelingen die worden weergegeven in erotische of genegenheidsvoorwaarden, zwangerschap, fysieke seksuele handelingen, waaronder die afgebeeld als een aanval of een gedwongen seksuele gewelddadige daad tegen wil, prostitutie, pornografie en misbruik.
Geweld Geweld beschrijft taal met betrekking tot fysieke acties die bedoeld zijn om iemand of iets te kwetsen, verwonden, beschadigen of doden; beschrijft wapens, wapens en gerelateerde entiteiten, zoals vervaardigingen, verenigingen, wetgeving, enzovoort.
Zelfschade Zelfbeschadiging beschrijft taal met betrekking tot fysieke acties die bedoeld zijn om opzettelijk pijn te doen, gewond te raken, het lichaam te beschadigen of zichzelf te doden.

Classificatie kan meerdere labels hebben. Wanneer een tekstvoorbeeld bijvoorbeeld het model voor tekstbeheer doorloopt, kan het worden geclassificeerd als seksuele inhoud en geweld.

Ernstniveaus

Elke schadecategorie die de service toepast, wordt ook geleverd met een classificatie op ernstniveau. Het ernstniveau is bedoeld om de ernst aan te geven van de gevolgen van het weergeven van de gemarkeerde inhoud.

Tekst: De huidige versie van het tekstmodel ondersteunt de volledige ernstschaal van 0-7. De classificatie detecteert tussen alle ernstpunten in deze schaal. Als de gebruiker opgeeft, kan de ernst worden geretourneerd in de ingekorte schaal van 0, 2, 4 en 6; elke twee aangrenzende niveaus worden toegewezen aan één niveau.

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

Afbeelding: De huidige versie van het afbeeldingsmodel ondersteunt de ingekorte versie van de volledige ernstschaal van 0-7. De classificatie retourneert alleen ernst 0, 2, 4 en 6; elke twee aangrenzende niveaus worden toegewezen aan één niveau.

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

Tekstinhoud

Waarschuwing

Het tabblad Ernstdefinities in dit document bevat voorbeelden van schadelijke inhoud die voor sommige lezers kan storen.

Afbeeldingsinhoud

Waarschuwing

Het tabblad Ernstdefinities in dit document bevat voorbeelden van schadelijke inhoud die voor sommige lezers kan storen.

Volgende stappen

Volg een quickstart om aan de slag te gaan met Azure AI Content Safety in uw toepassing.