Udostępnij za pośrednictwem


Narzędzie content Sejf ty (Text)

Azure AI Content Sejf ty to usługa con tryb namiotu ration opracowana przez firmę Microsoft, która ułatwia wykrywanie szkodliwej zawartości z różnych modalności i języków. Narzędzie Content Sejf ty (Text) to otoka interfejsu API zawartości usługi Azure AI Sejf ty text, który umożliwia wykrywanie zawartości tekstowej i uzyskiwanie wyników moderowania. Aby uzyskać więcej informacji, zobacz Azure AI Content Sejf ty.

Wymagania wstępne

  • Utwórz zasób zawartości sztucznej inteligencji platformy Azure Sejf ty.
  • Azure Content Safety Dodaj połączenie w przepływie monitu. API key Wypełnij pole z Primary keyKeys and Endpoint sekcji utworzonego zasobu.

Dane wejściowe

Następujące parametry można użyć jako danych wejściowych dla tego narzędzia:

Imię i nazwisko/nazwa Typ Opis Wymagania
text string Tekst, który musi być moderowany. Tak
hate_category string Czułość moderowania dla Hate kategorii. Wybierz jedną z czterech opcji: disable, , low_sensitivitymedium_sensitivitylub high_sensitivity. Opcja disable oznacza brak moderowania dla Hate kategorii. Pozostałe trzy opcje oznaczają różne stopnie ścisłego filtrowania zawartości nienawiści. Wartość domyślna to medium_sensitivity. Tak
sexual_category string Czułość moderowania dla Sexual kategorii. Wybierz jedną z czterech opcji: disable, , low_sensitivitymedium_sensitivitylub high_sensitivity. Opcja disable oznacza brak moderowania dla Sexual kategorii. Pozostałe trzy opcje oznaczają różne stopnie ścisłego filtrowania treści seksualnych. Wartość domyślna to medium_sensitivity. Tak
self_harm_category string Czułość moderowania dla Self-harm kategorii. Wybierz jedną z czterech opcji: disable, , low_sensitivitymedium_sensitivitylub high_sensitivity. Opcja disable oznacza brak moderowania dla Self-harm kategorii. Pozostałe trzy opcje oznaczają różne stopnie ścisłego filtrowania zawartości samookaleczenia. Wartość domyślna to medium_sensitivity. Tak
violence_category string Czułość moderowania dla Violence kategorii. Wybierz jedną z czterech opcji: disable, , low_sensitivitymedium_sensitivitylub high_sensitivity. Opcja disable oznacza brak moderowania dla Violence kategorii. Pozostałe trzy opcje oznaczają różne stopnie ścisłego filtrowania treści przemocy. Wartość domyślna to medium_sensitivity. Tak

Aby uzyskać więcej informacji, zobacz Azure AI Content Sejf ty.

Dane wyjściowe

Poniższy przykład to przykładowa odpowiedź w formacie JSON zwrócona przez narzędzie:

{
    "action_by_category": {
      "Hate": "Accept",
      "SelfHarm": "Accept",
      "Sexual": "Accept",
      "Violence": "Accept"
    },
    "suggested_action": "Accept"
  }

Pole action_by_category zawiera wartość binarną dla każdej kategorii: Accept lub Reject. Ta wartość pokazuje, czy tekst spełnia poziom poufności ustawiony w parametrach żądania dla tej kategorii.

Pole suggested_action zawiera ogólną rekomendację opartą na czterech kategoriach. Jeśli dowolna kategoria ma wartość, suggested_action jest również Rejectwartością Reject .