Strumento Content Cassaforte ty (Text)
Azure AI Content Cassaforte ty è un servizio di con modalità tenda ration sviluppato da Microsoft che consente di rilevare contenuti dannosi da diverse modalità e linguaggi. Lo strumento Content Cassaforte ty (Text) è un wrapper per l'API Content Cassaforte ty Text di Azure per intelligenza artificiale, che consente di rilevare il contenuto di testo e ottenere risultati di moderazione. Per altre informazioni, vedere Contenuto di Intelligenza artificiale di Azure Cassaforte ty.
Prerequisiti
- Creare una risorsa di contenuto di intelligenza artificiale di Azure Cassaforte ty.
- Aggiungere una
Azure Content Safety
connessione nel flusso di richiesta. Compilare ilAPI key
campo conPrimary key
dallaKeys and Endpoint
sezione della risorsa creata.
Input
È possibile usare i parametri seguenti come input per questo strumento:
Nome | Tipo | Descrizione | Richiesto |
---|---|---|---|
testo | stringa | Testo da moderare. | Sì |
hate_category | stringa | Riservatezza della moderazione per la Hate categoria. Scegliere tra quattro opzioni: disable , low_sensitivity , medium_sensitivity o high_sensitivity . L'opzione disable non indica alcuna moderazione per la Hate categoria. Le altre tre opzioni indicano diversi gradi di rigidità nell'escludere il contenuto di odio. Il valore predefinito è medium_sensitivity . |
Sì |
sexual_category | stringa | Riservatezza della moderazione per la Sexual categoria. Scegliere tra quattro opzioni: disable , low_sensitivity , medium_sensitivity o high_sensitivity . L'opzione disable non indica alcuna moderazione per la Sexual categoria. Le altre tre opzioni indicano diversi gradi di rigidità nel filtrare il contenuto sessuale. Il valore predefinito è medium_sensitivity . |
Sì |
self_harm_category | stringa | Riservatezza della moderazione per la Self-harm categoria. Scegliere tra quattro opzioni: disable , low_sensitivity , medium_sensitivity o high_sensitivity . L'opzione disable non indica alcuna moderazione per la Self-harm categoria. Le altre tre opzioni indicano diversi gradi di rigidità nel filtrare il contenuto autolesionismo. Il valore predefinito è medium_sensitivity . |
Sì |
violence_category | stringa | Riservatezza della moderazione per la Violence categoria. Scegliere tra quattro opzioni: disable , low_sensitivity , medium_sensitivity o high_sensitivity . L'opzione disable non indica alcuna moderazione per la Violence categoria. Le altre tre opzioni indicano diversi gradi di rigidità nell'escludere il contenuto della violenza. Il valore predefinito è medium_sensitivity . |
Sì |
Per altre informazioni, vedere Contenuto di Intelligenza artificiale di Azure Cassaforte ty.
Output
L'esempio seguente è una risposta in formato JSON di esempio restituita dallo strumento:
{
"action_by_category": {
"Hate": "Accept",
"SelfHarm": "Accept",
"Sexual": "Accept",
"Violence": "Accept"
},
"suggested_action": "Accept"
}
Il action_by_category
campo fornisce un valore binario per ogni categoria: Accept
o Reject
. Questo valore indica se il testo soddisfa il livello di riservatezza impostato nei parametri della richiesta per tale categoria.
Il suggested_action
campo offre una raccomandazione complessiva in base alle quattro categorie. Se una categoria ha un Reject
valore, suggested_action
è anche Reject
.
Commenti e suggerimenti
https://aka.ms/ContentUserFeedback.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedereInvia e visualizza il feedback per