Qu’est-ce qu’Azure Content Moderator ?

Important

Les API de révision Content Moderator et l’outil de révision en ligne ont été mis hors service le 31/12/2021. Les API de modération sont toujours disponibles.

Azure Content Moderator est un service d’IA qui vous permet de gérer le contenu potentiellement offensant, risqué ou indésirable. Il inclut le service de modération de contenu alimenté par l’IA qui analyse le texte, les images et les vidéos, et applique automatiquement des indicateurs de contenu.

Vous pouvez être amené à intégrer un logiciel de filtrage de contenu dans votre application afin de vous conformer aux réglementations ou de maintenir l’environnement souhaité pour vos utilisateurs.

Cette documentation contient les types d’articles suivants :

  • Les Démarrages rapides sont des instructions de prise en main qui vous guident dans la formulation de vos requêtes au service.
  • Les Guides pratiques contiennent des instructions sur l’utilisation du service de manière plus spécifique ou personnalisée.
  • Les Concepts fournissent des explications approfondies sur les fonctions et fonctionnalités du service.
  • Les Tutoriels sont des guides plus longs qui montrent comment utiliser le service en tant que composant dans des solutions métier élargies.

Pour une approche plus structurée, suivez un module Learn sur Content Moderator.

Utilisation

Voici quelques scénarios dans lesquels un développeur de logiciels ou une équipe requiert un service de modération de contenu :

  • Modération des catalogues de produits et du contenu généré par l’utilisateur sur les marketplaces en ligne
  • Modération des artefacts créés par les utilisateurs et des messageries instantanées par les sociétés de jeu
  • Modération des images, du texte et des vidéos ajoutés par les utilisateurs sur les plateformes de messagerie sociale
  • Mise en place par les sociétés de contenu d’entreprise d’un système de modération centralisé du contenu
  • Filtrage du contenu inapproprié pour les élèves et les enseignants par les fournisseurs de solutions éducatives (maternelle-terminale)

Important

Vous ne pouvez pas utiliser Content Moderator pour détecter des images illégales d’exploitation d’enfants. Toutefois, les organisations qualifiées peuvent utiliser le service cloud PhotoDNA de Microsoft pour détecter ce type de contenu.

Contenu

Le service Content Moderator se compose de plusieurs API de service web disponibles via les appels REST et un SDK .NET.

API de modération

Le service Content Moderator inclut des API de modération qui vérifient le contenu afin d'y détecter des éléments potentiellement inappropriés ou répréhensibles.

Schéma fonctionnel des API de modération Content Moderator

Le tableau suivant décrit les différents types d’API de modération.

Groupe d’API Description
Modération de texte Analyse du texte à la recherche de contenu offensant, de contenu sexuellement explicite ou suggestif, de blasphèmes et de données personnelles.
Listes de termes personnalisées Analyse du texte par rapport à une liste personnalisée de termes, en plus des termes prédéfinis. Utilisez les listes personnalisées pour bloquer ou autoriser du contenu en fonction de vos propres stratégies de contenu.
Modération d’images Analyse des images à la recherche de contenu pour adultes et osé, détection de texte dans les images grâce à la reconnaissance optique des caractères (OCR) et détection des visages.
Listes d’images personnalisées Analyse des images par rapport à une liste d’images personnalisée. Utilisez les listes d’images personnalisées pour filtrer les instances de contenu récurrent que vous ne souhaitez pas classifier à nouveau.
Modération de vidéos Analyse des vidéos à la recherche de contenu pour adultes ou osé, en renvoyant des marqueurs de temps pour ce contenu.

Sécurité et confidentialité des données

Comme avec tous les services Cognitive Services, les développeurs utilisant le service Content Moderator doivent connaître les politiques de Microsoft relatives aux données client. Pour en savoir plus, consultez la page Cognitive Services dans le Centre de gestion de la confidentialité Microsoft.

Étapes suivantes

Pour commencer à utiliser Content Moderator sur le portail web, suivez Essayer Content Moderator sur le web. Vous pouvez également effectuer un démarrage rapide de la bibliothèque cliente ou de l’API REST pour implémenter les scénarios de base dans le code.