Categorie di danni nel contenuto di Intelligenza artificiale di Azure Cassaforte ty

Questa guida descrive tutte le categorie e le classificazioni dannose usate dal contenuto di Intelligenza artificiale di Azure Cassaforte ty per contrassegnare il contenuto. Sia il contenuto di testo che quello dell'immagine usano lo stesso set di flag.

Categorie di danni

Il contenuto Cassaforte ty riconosce quattro categorie distinte di contenuto inapproponibile.

Categoria Descrizione
Odio e equità I danni correlati all'odio e all'equità si riferiscono a qualsiasi contenuto che attacca o usa linguaggio pejorative o discriminatorio con riferimento a una persona o a un gruppo di identità basato su determinati attributi diversi di questi gruppi, tra cui, ad esempio, razza, etnia, nazionalità, identità di genere ed espressione, orientamento sessuale, religione, stato dell'immigrazione, stato di abilità, aspetto personale e dimensioni del corpo.

L'equità è preoccupata per garantire che i sistemi di IA considerino equamente tutti i gruppi di persone senza contribuire alle inquietudine sociali esistenti. Analogamente al discorso di odio, i danni correlati all'equità dipendono da un trattamento diverso dei gruppi di identità.
Sessuale Il linguaggio sessuale descrive il linguaggio correlato ad organi anatomici e genitali, relazioni romantiche, atti ritratti in termini erotici o affettuosi, gravidanza, atti sessuali fisici, inclusi quelli rappresentati come un assalto o un atto violento sessuale forzato contro la volontà, la prostituzione, la pornografia e l'abuso.
Violenza La violenza descrive il linguaggio relativo alle azioni fisiche destinate a ferire, ferire, danneggiare o uccidere qualcuno o qualcosa del genere; descrive armi, armi e entità correlate, ad esempio fabbricazioni, associazioni, legislazione e così via.
Autolesionismo L'autolesionismo descrive il linguaggio correlato alle azioni fisiche destinate a ferire intenzionalmente, ferire, danneggiare il corpo o uccidersi.

La classificazione può essere con etichetta multipla. Ad esempio, quando un esempio di testo passa attraverso il modello di moderazione del testo, può essere classificato sia come contenuto sessuale che come violenza.

Livelli di gravità

Ogni categoria di danni applicata dal servizio include anche una classificazione del livello di gravità. Il livello di gravità è destinato a indicare la gravità delle conseguenze della visualizzazione del contenuto contrassegnato.

Testo: la versione corrente del modello di testo supporta la scala di gravità completa di 0-7. Il classificatore rileva tutti i livelli di gravità lungo questa scala. Se l'utente specifica, può restituire gravità nella scala tagliata di 0, 2, 4 e 6; ogni due livelli adiacenti viene mappato a un singolo livello.

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

Immagine: la versione corrente del modello di immagine supporta la versione ridotta della scala di gravità completa di 0-7. Il classificatore restituisce solo i livelli di gravità 0, 2, 4 e 6; ogni due livelli adiacenti viene mappato a un singolo livello.

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

Contenuto di testo

Avviso

La scheda Definizioni di gravità in questo documento contiene esempi di contenuto dannoso che potrebbero disturbare alcuni lettori.

Contenuto immagine

Avviso

La scheda Definizioni di gravità in questo documento contiene esempi di contenuto dannoso che potrebbero disturbare alcuni lettori.

Passaggi successivi

Seguire una guida introduttiva per iniziare a usare Il contenuto di Intelligenza artificiale di Azure Cassaforte ty nell'applicazione.