Documentation Content Moderator

L’API Azure Content Moderator vérifie le texte, les images et le contenu vidéo à la recherche d’éléments potentiellement dangereux, offensants ou indésirables. Content Moderator sera déprécié en février 2024 et mis hors service d’ici février 2027. Il est remplacé par Azure AI Sécurité du Contenu, qui offre des fonctionnalités d’IA avancées et des performances améliorées. Azure AI Content Safety est une solution complète conçue pour détecter le contenu nuisible généré par l’utilisateur et généré par l’IA dans les applications et les services. Azure AI Content Safety convient à de nombreux scénarios tels que les places de marché en ligne, les sociétés de jeux, les plateformes de messagerie sociale, les entreprises de médias d’entreprise et les fournisseurs de solutions d’enseignement primaire et secondaire.

Azure AI Content Safety

Bien démarrer

À propos de Content Moderator

Vue d’ensemble

Entrainement

video

Aide et commentaires

Référence