Outil Content Safety (Text)
Azure AI Content Safety est un service de con mode tente ration développé par Microsoft qui vous aide à détecter le contenu dangereux provenant de différentes modalités et langues. L’outil Content Safety (Text) est un wrapper pour l’API Texte de sécurité du contenu Azure AI, qui vous permet de détecter le contenu texte et d’obtenir des résultats de modération. Pour obtenir plus d’informations, consultez Azure AI Sécurité du Contenu.
Prérequis
- Créez une ressource Azure AI Content Safety .
- Ajoutez une
Azure Content Safety
connexion dans le flux d’invite. Remplissez leAPI key
champ àPrimary key
partir de laKeys and Endpoint
section de la ressource créée.
Entrées
Vous pouvez utiliser les paramètres suivants comme entrées pour cet outil :
Nom | Type | Description | Obligatoire |
---|---|---|---|
text | string | Texte à modérer. | Oui |
hate_category | string | Sensibilité de modération pour la Hate catégorie. Choisissez parmi quatre options : disable , , medium_sensitivity low_sensitivity ou high_sensitivity . L’option disable signifie qu’aucune modération n’est prévue pour la Hate catégorie. Les trois autres options signifient différents degrés de rigueur dans le filtrage du contenu haineux. Par défaut, il s’agit de medium_sensitivity . |
Oui |
sexual_category | string | Sensibilité de modération pour la Sexual catégorie. Choisissez parmi quatre options : disable , , medium_sensitivity low_sensitivity ou high_sensitivity . L’option disable signifie qu’aucune modération n’est prévue pour la Sexual catégorie. Les trois autres options signifient différents degrés de rigueur dans le filtrage du contenu sexuel. Par défaut, il s’agit de medium_sensitivity . |
Oui |
self_harm_category | string | Sensibilité de modération pour la Self-harm catégorie. Choisissez parmi quatre options : disable , , medium_sensitivity low_sensitivity ou high_sensitivity . L’option disable signifie qu’aucune modération n’est prévue pour la Self-harm catégorie. Les trois autres options signifient différents degrés de rigueur dans le filtrage du contenu auto-nuisible. Par défaut, il s’agit de medium_sensitivity . |
Oui |
violence_category | string | Sensibilité de modération pour la Violence catégorie. Choisissez parmi quatre options : disable , , medium_sensitivity low_sensitivity ou high_sensitivity . L’option disable signifie qu’aucune modération n’est prévue pour la Violence catégorie. Les trois autres options signifient différents degrés de rigueur dans le filtrage du contenu violence. Par défaut, il s’agit de medium_sensitivity . |
Oui |
Pour obtenir plus d’informations, consultez Azure AI Sécurité du Contenu.
Outputs
L’exemple suivant est un exemple de réponse au format JSON retournée par l’outil :
{
"action_by_category": {
"Hate": "Accept",
"SelfHarm": "Accept",
"Sexual": "Accept",
"Violence": "Accept"
},
"suggested_action": "Accept"
}
Le action_by_category
champ vous donne une valeur binaire pour chaque catégorie : Accept
ou Reject
. Cette valeur indique si le texte répond au niveau de sensibilité que vous avez défini dans les paramètres de demande pour cette catégorie.
Le suggested_action
champ vous donne une recommandation globale basée sur les quatre catégories. Si une catégorie a une valeur Reject
, suggested_action
est également Reject
.