Share via


Hulpprogramma Voor inhoudsveiligheid (tekst)

Azure AI Content Safety is een con tentmodus rationservice die is ontwikkeld door Microsoft, waarmee u schadelijke inhoud uit verschillende modaliteiten en talen kunt detecteren. Het hulpprogramma Content Safety (Text) is een wrapper voor de Azure AI Content Safety Text-API, waarmee u tekstinhoud kunt detecteren en moderatieresultaten kunt ophalen. Zie Azure AI Content Safety voor meer informatie.

Vereisten

  • Maak een Azure AI Content Safety-resource .
  • Voeg een Azure Content Safety verbinding toe in de promptstroom. Vul het API key veld in vanuit Primary key de Keys and Endpoint sectie van de gemaakte resource.

Invoerwaarden

U kunt de volgende parameters gebruiken als invoer voor dit hulpprogramma:

Name Type Beschrijving Vereist
sms verzenden tekenreeks Tekst die moet worden gemodereerd. Ja
hate_category tekenreeks Beoordelingsgevoeligheid voor de Hate categorie. Kies uit vier opties: disable, low_sensitivity, medium_sensitivityof high_sensitivity. De disable optie betekent geen toezicht voor de Hate categorie. De andere drie opties betekenen verschillende mate van striktheid bij het filteren van haat-inhoud. De standaardwaarde is medium_sensitivity. Ja
sexual_category tekenreeks Beoordelingsgevoeligheid voor de Sexual categorie. Kies uit vier opties: disable, low_sensitivity, medium_sensitivityof high_sensitivity. De disable optie betekent geen toezicht voor de Sexual categorie. De andere drie opties betekenen verschillende mate van strengheid bij het filteren van seksuele inhoud. De standaardwaarde is medium_sensitivity. Ja
self_harm_category tekenreeks Beoordelingsgevoeligheid voor de Self-harm categorie. Kies uit vier opties: disable, low_sensitivity, medium_sensitivityof high_sensitivity. De disable optie betekent geen toezicht voor de Self-harm categorie. De andere drie opties betekenen verschillende mate van strengheid bij het filteren van inhoud die zelfschadig is. De standaardwaarde is medium_sensitivity. Ja
violence_category tekenreeks Beoordelingsgevoeligheid voor de Violence categorie. Kies uit vier opties: disable, low_sensitivity, medium_sensitivityof high_sensitivity. De disable optie betekent geen toezicht voor de Violence categorie. De andere drie opties betekenen verschillende mate van striktheid bij het filteren van geweldsinhoud. De standaardwaarde is medium_sensitivity. Ja

Zie Azure AI Content Safety voor meer informatie.

Uitvoer

Het volgende voorbeeld is een voorbeeld van een JSON-indelingsantwoord dat door het hulpprogramma wordt geretourneerd:

{
    "action_by_category": {
      "Hate": "Accept",
      "SelfHarm": "Accept",
      "Sexual": "Accept",
      "Violence": "Accept"
    },
    "suggested_action": "Accept"
  }

Het action_by_category veld geeft u een binaire waarde voor elke categorie: Accept of Reject. Deze waarde geeft aan of de tekst voldoet aan het gevoeligheidsniveau dat u hebt ingesteld in de aanvraagparameters voor die categorie.

Het suggested_action veld geeft u een algemene aanbeveling op basis van de vier categorieën. Als een categorie een Reject waarde heeft, suggested_action is dat ook Reject.