Documentation Content Moderator
L’API Azure Content Moderator vérifie le texte, les images et le contenu vidéo à la recherche d’éléments potentiellement dangereux, offensants ou indésirables. Content Moderator sera déprécié en février 2024 et mis hors service d’ici février 2027. Il est remplacé par Azure AI Sécurité du Contenu, qui offre des fonctionnalités d’IA avancées et des performances améliorées. Azure AI Content Safety est une solution complète conçue pour détecter le contenu nuisible généré par l’utilisateur et généré par l’IA dans les applications et les services. Azure AI Content Safety convient à de nombreux scénarios tels que les places de marché en ligne, les sociétés de jeux, les plateformes de messagerie sociale, les entreprises de médias d’entreprise et les fournisseurs de solutions d’enseignement primaire et secondaire.
À propos de Content Moderator
Vue d’ensemble
Entrainement
video
Analyser le contenu d’une image
Concept
Démarrage rapide
- Utilisation du kit de développement logiciel (SDK) .NET
- Utilisation du Kit de développement logiciel (SDK) Python
- Utilisation du Kit de développement logiciel (SDK) Java
- En utilisant l’API REST
Guide pratique
Utiliser des listes d’images personnalisées
Démarrage rapide
- Utilisation du kit de développement logiciel (SDK) .NET
- Utilisation du Kit de développement logiciel (SDK) Python
Guide pratique
Analyser le contenu d’un texte
Concept
Démarrage rapide
- Utilisation du kit de développement logiciel (SDK) .NET
- Utilisation du Kit de développement logiciel (SDK) Python
- En utilisant l’API REST
Guide pratique
Utiliser des listes de termes personnalisées
Démarrage rapide
- Utilisation du kit de développement logiciel (SDK) .NET
- Utilisation du Kit de développement logiciel (SDK) Python