Partager via


Démarrage rapide : Analyser le contenu d’un texte

Commencez à utiliser Content Safety Studio, l’API REST ou les Kits de développement logiciel (SDK) clients pour effectuer une modération de texte simple. Le service Azure AI Sécurité du Contenu vous fournit des algorithmes d’IA pour signaler le contenu répréhensible. Suivez ces étapes pour le tester.

Pour plus d’informations sur la modération du texte, consultez la page concept des catégories Harm. Pour connaître les limites d’entrée d’API, consultez la section Configuration requise pour les entrées de la vue d’ensemble.

Attention

Les exemples de données et de code peuvent présenter du contenu choquant. La discrétion de l'utilisateur est conseillée.

Prérequis

Programme d’installation

Pour utiliser la page Essayer de Sécurité du contenu, procédez comme suit :

  1. Accédez à Azure AI Foundry et naviguez jusqu’à votre projet/hub. Sélectionnez ensuite l’onglet Sécurité dans le volet de navigation gauche, puis sélectionnez l’onglet Essayer.
  2. Sur la page Essayer , vous pouvez tester différentes fonctionnalités de sécurité du contenu telles que du texte et du contenu d’image, à l’aide de seuils réglables pour filtrer le contenu inapproprié ou dangereux.

Capture d’écran de la page Essayer pour la sécurité du contenu.

Analyser le texte

  1. Sélectionnez le panneau Modérer le contenu d’un texte.
  2. Ajoutez du texte au champ d’entrée ou sélectionnez un exemple de texte dans les panneaux de la page.
  3. Sélectionnez Exécuter le test. Le service retourne toutes les catégories qui ont été détectées, avec un niveau de gravité pour chacune : 0-Sûr, 2-Faible, 4-Moyen, 6-Élevé. Il retourne également un résultat binaire Accepté/Refusé, en fonction des filtres que vous configurez. Utilisez la matrice de l’onglet Configurer des filtres pour définir vos niveaux de gravité autorisés/interdits pour chaque catégorie. Ensuite, vous pouvez réexécuter le texte pour voir comment fonctionne le filtre.

Afficher et exporter du code

Vous pouvez utiliser la fonctionnalité Afficher le code dans la page Analyser le contenu d’un texte ou Analyser le contenu d’une image pour voir et copier l’exemple de code, qui comprend la configuration du filtrage des gravités, des listes de blocage et des fonctions de modération. Vous pouvez ensuite déployer le code de votre côté.

Capture d’écran du bouton Afficher le code.

Prérequis

  • Un abonnement Azure - En créer un gratuitement
  • Une fois que vous avez votre abonnement Azure, créez une ressource Content Safety dans le portail Azure pour obtenir votre clé et votre point de terminaison. Entrez un nom unique pour votre ressource, sélectionnez votre abonnement, puis sélectionnez un groupe de ressources, une région prise en charge (voir disponibilité région) et le niveau tarifaire pris en charge. Sélectionnez ensuite Créer.
    • Le déploiement de la ressource prend quelques minutes. Une fois qu’il est terminé, sélectionnez Accéder à la ressource. Dans le volet gauche, sous Gestion des ressources, sélectionnez Clé et point de terminaison de l’abonnement. Le point de terminaison et l’une des clés sont utilisés pour appeler les API.
  • Installation de cURL

Analyser le contenu d’un texte

La section suivante décrit en détail un exemple de requête avec cURL. Collez la commande ci-dessous dans un éditeur de texte et effectuez les modifications suivantes :

  1. Remplacez <endpoint> par l’URL de point de terminaison associée à votre ressource.
  2. Remplacez <your_subscription_key> par l’une des clés qui viennent avec votre ressource.
  3. Si vous le souhaitez, remplacez le champ "text" dans le corps par votre propre texte que vous souhaitez analyser.

    Conseil

    Taille et granularité du texte

    Consultez les exigences d’entrée pour connaître les limites de longueur de texte maximales.

curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "text": "I hate you",
  "categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
  "blocklistNames": ["string"],
  "haltOnBlocklistHit": true,
  "outputType": "FourSeverityLevels"
}'

Les champs ci-dessous doivent être inclus dans l’URL :

Nom Obligatoire Description Type
Version de l'API Obligatoire Il s’agit de la version de l’API à vérifier. La version actuelle est : api-version=2024-09-01. Exemple : <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 Chaîne

Les paramètres dans le corps de la requête sont définis dans ce tableau :

Nom Obligatoire Description Type
texte Obligatoire Il s’agit du texte brut à vérifier. D’autres caractères non-ascii peuvent être inclus. Chaîne
catégories Facultatif C’est supposé être un tableau de noms de catégorie. Consultez le guide des catégories préjudiciables pour obtenir la liste des noms de catégorie disponibles. Si aucune catégorie n’est spécifiée, les quatre catégories sont utilisées. Nous utilisons plusieurs catégories pour obtenir des scores dans une seule requête. Chaîne
noms de liste de blocage Facultatif Nom de la liste de blocage de texte. Prend uniquement en charge les caractères suivants : 0-9 A-Z a-z - . _ ~. Vous pouvez joindre les noms de plusieurs listes ici. Tableau
haltOnBlocklistHit Facultatif Lorsque la valeur est définie sur true, aucune autre analyse de contenu nuisible n’est effectuée dans les cas où des listes de blocage ont fait leur travail. Lorsque la valeur est définie sur false, toutes les analyses de contenu nuisible sont effectuées, que les listes de blocage soient utilisées ou non. Booléen
outputType Facultatif "FourSeverityLevels" ou "EightSeverityLevels". Gravités de sortie en quatre ou huit niveaux. La valeur peut être 0,2,4,6 ou 0,1,2,3,4,5,6,7. Chaîne

Examinez l’exemple de corps de requête suivant :

{
  "text": "I hate you",
  "categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
  "blocklistNames": ["array"],
  "haltOnBlocklistHit": false,
  "outputType": "FourSeverityLevels"
}

Ouvrez une fenêtre d’invite de commandes, collez la commande cURL modifiée et exécutez-la.

Sortie

Vous devriez voir les résultats de la modération du texte sous la forme de données JSON dans la sortie de la console. Par exemple :

{
  "blocklistsMatch": [
    {
      "blocklistName": "string",
      "blocklistItemId": "string",
      "blocklistItemText": "string"
    }
  ],
  "categoriesAnalysis": [
    {
      "category": "Hate",
      "severity": 2
    },
    {
      "category": "SelfHarm",
      "severity": 0
    },
    {
      "category": "Sexual",
      "severity": 0
    },
    {
      "category": "Violence",
      "severity": 0
    }
  ]
}

Les champs JSON dans la sortie sont définis ici :

Nom Description Type
categoriesAnalysis Chaque classe de sortie prédite par l’API. La classification peut avoir plusieurs intitulés. Par exemple, lorsqu’un exemple de texte est exécuté via le modèle de modération de texte, il peut être classé à la fois comme du contenu à caractère sexuel et de la violence. Catégories préjudiciables Chaîne
Niveau de gravité Plus la gravité du contenu entré est élevée, plus cette valeur est élevée. Nombre entier

Documentation de référence | Code source de la bibliothèque | Package (NuGet) | Exemples

Prérequis

  • Un abonnement Azure - En créer un gratuitement
  • L’IDE Visual Studio avec la charge de travail Développement de bureau .NET activée. Ou, si vous n’envisagez pas d’utiliser l’IDE Visual Studio, vous avez besoin de la version actuelle de .NET Core.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Content Safety dans le portail Azure pour obtenir votre clé et votre point de terminaison. Entrez un nom unique pour votre ressource, sélectionnez votre abonnement, puis sélectionnez un groupe de ressources, une région prise en charge (voir disponibilité région) et le niveau tarifaire pris en charge. Sélectionnez ensuite Créer.
    • Le déploiement de la ressource prend quelques minutes. Une fois qu’il est terminé, sélectionnez Accéder à la ressource. Dans le volet gauche, sous Gestion des ressources, sélectionnez Clé et point de terminaison de l’abonnement. Le point de terminaison et l’une des clés sont utilisés pour appeler les API.

Configurer l’application

Créez une application C#.

Ouvrez Visual Studio et, dans Démarrage, sélectionnez Créer un projet. Définissez les filtres de modèle sur C#/Toutes les plateformes/console. Sélectionnez Application console (application en ligne de commande qui peut s’exécuter sur .NET sur Windows, Linux et macOS), puis choisissez Suivant. Mettez à jour le nom du projet sur ContentSafetyQuickstart et choisissez Suivant. Sélectionnez .NET 6.0 ou version ultérieure, puis choisissez Créer pour créer le projet.

Installer le client du Kit de développement logiciel (SDK)

Une fois que vous avez créé un projet, installez le SDK de client en cliquant avec le bouton droit sur la solution de projet dans l’Explorateur de solutions et en sélectionnant Gérer les packages NuGet. Dans le gestionnaire de package qui s’ouvre, sélectionnez Parcourir et recherchez Azure.AI.ContentSafety. Sélectionnez Installer.

Créer des variables d’environnement

Dans cet exemple, vous allez écrire vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement CONTENT_SAFETY_KEY, remplacez YOUR_CONTENT_SAFETY_KEY par l’une des clés de votre ressource.
  • Pour définir la CONTENT_SAFETY_ENDPOINTvariable d’environnement, remplacez YOUR_CONTENT_SAFETY_ENDPOINT par le point de terminaison de votre ressource.

Important

Utilisez les clés API avec précaution. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement. Si vous utilisez une clé API, stockez-la de façon sécurisée dans Azure Key Vault. Pour plus d’informations sur l’utilisation sécurisée de clés API dans vos applications, consultez Clés API avec Azure Key Vault.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Après avoir ajouté les variables d'environnement, il se put que vous deviez redémarrer tous les programmes en cours d'exécution qui liront les variables d'environnement, y compris la fenêtre de console.

Analyser le contenu d’un texte

Dans le répertoire du projet, ouvrez le fichier Program.cs créé précédemment. Collez le code suivant :

using System;
using Azure.AI.ContentSafety;

namespace Azure.AI.ContentSafety.Dotnet.Sample
{
  class ContentSafetySampleAnalyzeText
  {
    public static void AnalyzeText()
    {
      // retrieve the endpoint and key from the environment variables created earlier
      string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
      string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");

      ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));

      string text = "Your input text";

      var request = new AnalyzeTextOptions(text);

      Response<AnalyzeTextResult> response;
      try
      {
          response = client.AnalyzeText(request);
      }
      catch (RequestFailedException ex)
      {
          Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
          throw;
      }

      Console.WriteLine("\nAnalyze text succeeded:");
      Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
      Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
      Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
      Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);

    }
    static void Main()
    {
        AnalyzeText();
    }
  }
}

Remplacez "Your input text" par le texte que vous souhaitez utiliser.

Conseil

Taille et granularité du texte

Consultez les exigences d’entrée pour connaître les limites de longueur de texte maximales.

Générez et exécutez l’application en sélectionnant Démarrer le débogage dans le menu Déboguer en haut de la fenêtre IDE (ou appuyez sur F5).

Documentation de référence | Code source de la bibliothèque | Package (PyPI) | Exemples |

Prérequis

  • Un abonnement Azure - En créer un gratuitement
  • Une fois que vous avez votre abonnement Azure, créez une ressource Content Safety dans le portail Azure pour obtenir votre clé et votre point de terminaison. Entrez un nom unique pour votre ressource, sélectionnez votre abonnement, puis sélectionnez un groupe de ressources, une région prise en charge (voir disponibilité région) et le niveau tarifaire pris en charge. Sélectionnez ensuite Créer.
    • Le déploiement de la ressource prend quelques minutes. Une fois qu’il est terminé, sélectionnez Accéder à la ressource. Dans le volet gauche, sous Gestion des ressources, sélectionnez Clé et point de terminaison de l’abonnement. Le point de terminaison et l’une des clés sont utilisés pour appeler les API.
  • Python 3.x
    • Votre installation Python doit inclure pip. Vous pouvez vérifier si pip est installé en exécutant pip --version sur la ligne de commande. Obtenez pip en installant la dernière version de Python.

Créer des variables d’environnement

Dans cet exemple, vous allez écrire vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement CONTENT_SAFETY_KEY, remplacez YOUR_CONTENT_SAFETY_KEY par l’une des clés de votre ressource.
  • Pour définir la CONTENT_SAFETY_ENDPOINTvariable d’environnement, remplacez YOUR_CONTENT_SAFETY_ENDPOINT par le point de terminaison de votre ressource.

Important

Utilisez les clés API avec précaution. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement. Si vous utilisez une clé API, stockez-la de façon sécurisée dans Azure Key Vault. Pour plus d’informations sur l’utilisation sécurisée de clés API dans vos applications, consultez Clés API avec Azure Key Vault.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Après avoir ajouté les variables d'environnement, il se put que vous deviez redémarrer tous les programmes en cours d'exécution qui liront les variables d'environnement, y compris la fenêtre de console.

Analyser le contenu d’un texte

La section suivante décrit en détail un exemple de requête avec le SDK Python.

  1. Ouvrez une invite de commandes, accédez à votre dossier de projet et créez un fichier nommé quickstart.py.

  2. Exécutez cette commande pour installer la bibliothèque Azure AI Content Safety :

    pip install azure-ai-contentsafety
    
  3. Copiez le code ci-après dans quickstart.py :

    import os
    from azure.ai.contentsafety import ContentSafetyClient
    from azure.core.credentials import AzureKeyCredential
    from azure.core.exceptions import HttpResponseError
    from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory
    
    def analyze_text():
        # analyze text
        key = os.environ["CONTENT_SAFETY_KEY"]
        endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"]
    
        # Create an Azure AI Content Safety client
        client = ContentSafetyClient(endpoint, AzureKeyCredential(key))
    
        # Contruct request
        request = AnalyzeTextOptions(text="Your input text")
    
        # Analyze text
        try:
            response = client.analyze_text(request)
        except HttpResponseError as e:
            print("Analyze text failed.")
            if e.error:
                print(f"Error code: {e.error.code}")
                print(f"Error message: {e.error.message}")
                raise
            print(e)
            raise
    
        hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE)
        self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM)
        sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL)
        violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE)
    
        if hate_result:
            print(f"Hate severity: {hate_result.severity}")
        if self_harm_result:
            print(f"SelfHarm severity: {self_harm_result.severity}")
        if sexual_result:
            print(f"Sexual severity: {sexual_result.severity}")
        if violence_result:
            print(f"Violence severity: {violence_result.severity}")
    
    if __name__ == "__main__":
        analyze_text()
    
  4. Remplacez "Your input text" par le texte que vous souhaitez utiliser.

    Conseil

    Taille et granularité du texte

    Consultez les exigences d’entrée pour connaître les limites de longueur de texte maximales.

  5. Exécutez ensuite l’application avec la commande python de votre fichier de démarrage rapide.

    python quickstart.py
    

Documentation de référence | Code source de la bibliothèque | Artefact (Maven) | Exemples

Prérequis

  • Un abonnement Azure - En créer un gratuitement
  • La version actuelle du JDK (Java Development Kit)
  • L’outil de génération Gradle ou un autre gestionnaire de dépendances.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Content Safety dans le portail Azure pour obtenir votre clé et votre point de terminaison. Entrez un nom unique pour votre ressource, sélectionnez votre abonnement, puis sélectionnez un groupe de ressources, une région prise en charge (voir disponibilité région) et le niveau tarifaire pris en charge. Sélectionnez ensuite Créer.
    • Le déploiement de la ressource prend quelques minutes. Une fois qu’il est terminé, sélectionnez Accéder à la ressource. Dans le volet gauche, sous Gestion des ressources, sélectionnez Clé et point de terminaison de l’abonnement. Le point de terminaison et l’une des clés sont utilisés pour appeler les API.

Configurer l’application

Créez un projet Gradle.

Dans une fenêtre de console (telle que cmd, PowerShell ou bash), créez un répertoire pour votre application et accédez-y.

mkdir myapp && cd myapp

Exécutez la commande gradle init à partir de votre répertoire de travail. Cette commande crée des fichiers de build essentiels pour Gradle, notamment build.gradle.kts, qui est utilisé au moment de l’exécution pour créer et configurer votre application.

gradle init --type basic

Quand vous êtes invité à choisir un DSL, sélectionnez Kotlin.

Dans votre répertoire de travail, exécutez la commande suivante pour créer un dossier de projet source :

mkdir -p src/main/java

Accédez au nouveau dossier et créez un fichier nommé ContentSafetyQuickstart.java.

Installer le client du Kit de développement logiciel (SDK)

Ce guide de démarrage rapide utilise le gestionnaire de dépendances Gradle. Vous trouverez la bibliothèque de client et des informations concernant d’autres gestionnaires de dépendances sur le référentiel central Maven.

Recherchez build.gradle.kts et ouvrez-le avec votre IDE ou votre éditeur de texte habituel. Copiez-y ensuite la configuration de build suivante. Cette configuration définit le projet en tant qu’application Java dont le point d’entrée est la classe ContentSafetyQuickstart. Cela importe la bibliothèque Azure AI Vision.

plugins {
    java
    application
}
application { 
    mainClass.set("ContentSafetyQuickstart")
}
repositories {
    mavenCentral()
}
dependencies {
    implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}

Créer des variables d’environnement

Dans cet exemple, vous allez écrire vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement CONTENT_SAFETY_KEY, remplacez YOUR_CONTENT_SAFETY_KEY par l’une des clés de votre ressource.
  • Pour définir la CONTENT_SAFETY_ENDPOINTvariable d’environnement, remplacez YOUR_CONTENT_SAFETY_ENDPOINT par le point de terminaison de votre ressource.

Important

Utilisez les clés API avec précaution. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement. Si vous utilisez une clé API, stockez-la de façon sécurisée dans Azure Key Vault. Pour plus d’informations sur l’utilisation sécurisée de clés API dans vos applications, consultez Clés API avec Azure Key Vault.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Après avoir ajouté les variables d'environnement, il se put que vous deviez redémarrer tous les programmes en cours d'exécution qui liront les variables d'environnement, y compris la fenêtre de console.

Analyser le contenu d’un texte

Ouvrez OpenSafetyQuickstart.java dans votre éditeur ou IDE préféré, puis collez le code suivant. Remplacez <your text sample> par le texte que vous souhaitez utiliser.

Conseil

Taille et granularité du texte

Consultez les exigences d’entrée pour connaître les limites de longueur de texte maximales.

import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;


public class ContentSafetyQuickstart {
    public static void main(String[] args) {

        // get endpoint and key from environment variables
        String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
        String key = System.getenv("CONTENT_SAFETY_KEY");
        
        ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
            .credential(new KeyCredential(key))
            .endpoint(endpoint).buildClient();

        AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));

        for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
            System.out.println(result.getCategory() + " severity: " + result.getSeverity());
        }
    }
}

Revenez au dossier racine du projet et générez l’application avec :

gradle build

Ensuite, exécutez-la avec la commande gradle run :

gradle run

Résultat

Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0

Documentation de référence | Code source de la bibliothèque | Package (npm) | Exemples |

Prérequis

  • Un abonnement Azure - En créer un gratuitement
  • Version actuelle de Node.js
  • Une fois que vous avez votre abonnement Azure, créez une ressource Content Safety dans le portail Azure pour obtenir votre clé et votre point de terminaison. Entrez un nom unique pour votre ressource, sélectionnez votre abonnement, puis sélectionnez un groupe de ressources, une région prise en charge (voir disponibilité région) et le niveau tarifaire pris en charge. Sélectionnez ensuite Créer.
    • Le déploiement de la ressource prend quelques minutes. Une fois qu’il est terminé, sélectionnez Accéder à la ressource. Dans le volet gauche, sous Gestion des ressources, sélectionnez Clé et point de terminaison de l’abonnement. Le point de terminaison et l’une des clés sont utilisés pour appeler les API.

Configurer l’application

Créez une application Node.js. Dans une fenêtre de console (telle que cmd, PowerShell ou bash), créez un répertoire pour votre application et accédez-y.

mkdir myapp && cd myapp

Exécutez la commande npm init pour créer une application de nœud avec un fichier package.json.

npm init

Installer le client du Kit de développement logiciel (SDK)

Installez le package NPM @azure-rest/ai-content-safety :

npm install @azure-rest/ai-content-safety

Installez également le module dotenv pour utiliser des variables d’environnement :

npm install dotenv

Le fichier package.json de votre application sera mis à jour avec les dépendances.

Créer des variables d’environnement

Dans cet exemple, vous allez écrire vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement CONTENT_SAFETY_KEY, remplacez YOUR_CONTENT_SAFETY_KEY par l’une des clés de votre ressource.
  • Pour définir la CONTENT_SAFETY_ENDPOINTvariable d’environnement, remplacez YOUR_CONTENT_SAFETY_ENDPOINT par le point de terminaison de votre ressource.

Important

Utilisez les clés API avec précaution. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement. Si vous utilisez une clé API, stockez-la de façon sécurisée dans Azure Key Vault. Pour plus d’informations sur l’utilisation sécurisée de clés API dans vos applications, consultez Clés API avec Azure Key Vault.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Après avoir ajouté les variables d'environnement, il se put que vous deviez redémarrer tous les programmes en cours d'exécution qui liront les variables d'environnement, y compris la fenêtre de console.

Analyser le contenu d’un texte

Créez un fichier dans votre répertoire, index.js. Ouvrez-le dans votre éditeur ou IDE préféré et collez dans le code suivant. Remplacez <your text sample> par le texte que vous souhaitez utiliser.

Conseil

Taille et granularité du texte

Consultez les exigences d’entrée pour connaître les limites de longueur de texte maximales.

const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
  { isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");

// Load the .env file if it exists
require("dotenv").config();

async function main() {
    // get endpoint and key from environment variables
    const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
    const key = process.env["CONTENT_SAFETY_KEY"];
    
    const credential = new AzureKeyCredential(key);
    const client = ContentSafetyClient(endpoint, credential);
    
    // replace with your own sample text string 
    const text = "<your sample text>";
    const analyzeTextOption = { text: text };
    const analyzeTextParameters = { body: analyzeTextOption };
    
    const result = await client.path("/text:analyze").post(analyzeTextParameters);
    
    if (isUnexpected(result)) {
        throw result;
    }
    
    for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
    const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
    console.log(
      textCategoriesAnalysisOutput.category,
      " severity: ",
      textCategoriesAnalysisOutput.severity
    );
  }
}

main().catch((err) => {
    console.error("The sample encountered an error:", err);
});

Exécutez l’application avec la commande node de votre fichier de démarrage rapide.

node index.js

Sortie

Hate severity:  0
SelfHarm severity:  0
Sexual severity:  0
Violence severity:  0

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.