Condividi tramite


Istruzioni di avvio rapido: Studio di Sicurezza dei contenuti di Azure AI

In questa guida introduttiva, iniziare a usare il servizio Content Safety di Azure per intelligenza artificiale usando Content Safety Studio nel browser.

Attenzione

Alcuni dei contenuti di esempio forniti da Studio di Sicurezza dei contenuti possono essere offensivi. Le immagini di esempio sono sfocate per impostazione predefinita. La discrezione dell'utente è consigliata.

Prerequisiti

Analizzare il contenuto di testo

La pagina Contenuto di testo moderato offre la possibilità di provare rapidamente la moderazione del testo.

Screenshot del pannello Analizza testo.

  1. Selezionare il pannello Moderare il contenuto di testi.
  2. Aggiungere del testo nel campo di input, oppure selezionare testo di esempio dai pannelli nella pagina.

    Suggerimento

    Dimensioni e granularità del testo

    Vedere Requisiti di input per le limitazioni massime della lunghezza del testo.

  3. Selezionare Esegui test.

Il servizio restituisce tutte le categorie rilevate, il livello di gravità per ognuna (0-Sicuro, 2-Basso, 4-Medio, 6-Alto). Restituisce anche un risultato Accettato/Rifiutato binario, in base ai filtri configurati. Usare la matrice nella scheda Configura filtri sulla destra per impostare i livelli di gravità consentiti/non consentiti per ogni categoria. È quindi possibile eseguire di nuovo il testo per vedere il funzionamento del filtro.

La scheda Usa blocklist sulla destra consente di creare, modificare e aggiungere un elenco di blocchi al flusso di lavoro di moderazione. Se è presente una blocklist abilitata durante l’esecuzione del test, verrà visualizzato un pannello Rilevamento blocklist in Risultati. Segnala eventuali corrispondenze con la blocklist.

Rilevare gli attacchi di input utente

Il pannello Prompt Shields consente di provare il rilevamento dei rischi di input dell'utente. Rilevare le richieste utente progettate per provocare il modello di intelligenza artificiale generativa in comportamenti di cui è stato eseguito il training per evitare o interrompere le regole impostate nel messaggio di sistema. Questi attacchi possono variare da intricato ruolo-gioco a subversione sottile dell'obiettivo di sicurezza.

Screenshot di Content Safety Studio con il pannello di rilevamento dei rischi di input utente selezionato.

  1. Selezionare il pannello Prompt Shields .Select the Prompt Shields panel.
  2. Selezionare un testo di esempio nella pagina o immettere il proprio contenuto per il test. È anche possibile caricare un file CSV per eseguire un test batch.
  3. Selezionare Esegui test.

Il servizio restituisce il flag di rischio e il tipo per ogni esempio.

Per altre informazioni, vedere la guida concettuale Prompt Shields.

Analizzare il contenuto delle immagini

La pagina Contenuto di immagine moderato offre la possibilità di provare rapidamente la moderazione dell’immagine.

Screenshot del pannello Analizza immagine.

  1. Selezionare il pannello Moderare il contenuto di immagini.
  2. Selezionare un'immagine di esempio dai pannelli nella pagina o caricare un’immagine personale. La dimensione massima per gli invii di immagini è di 4 MB e le dimensioni dell'immagine devono essere comprese tra 50 x 50 pixel e 2.048 x 2.048 pixel. Le immagini possono essere in formati JPEG, PNG, GIF, BMP, TIFF o WEBP.
  3. Selezionare Esegui test.

Il servizio restituisce tutte le categorie rilevate, il livello di gravità per ognuna (0-Sicuro, 2-Basso, 4-Medio, 6-Alto). Restituisce anche un risultato Accettato/Rifiutato binario, in base ai filtri configurati. Usare la matrice nella scheda Configura filtri sulla destra per impostare i livelli di gravità consentiti/non consentiti per ogni categoria. È quindi possibile eseguire di nuovo il testo per vedere il funzionamento del filtro.

Visualizzare ed esportare codice

È possibile usare la funzionalità Visualizza codice in entrambe le pagine Analizzare il contenuto di testi o Analizzare il contenuto di immagini per visualizzare e copiare il codice di esempio, che include la configurazione per i filtri di gravità, le blocklist e le funzioni di moderazione. È quindi possibile distribuire il codice dal proprio lato.

Screenshot del codice Di visualizzazione.

Monitorare l'attività online

La pagina Monitoraggio attività online consente di visualizzare l'utilizzo e le tendenze dell'API.

Screenshot del pannello Monitoraggio.

È possibile scegliere il tipo di supporto da monitorare. È anche possibile specificare l'intervallo di tempo che si desidera controllare selezionando Mostra dati per l'ultimo/gli ultimi __.

Nel grafico Rifiuta frequenza in base categoria è anche possibile modificare le soglie di gravità per ogni categoria.

Screenshot della tabella delle soglie di gravità.

È anche possibile modificare le blocklisti se si desidera modificare alcuni termini, in base al grafico dei primi 10 termini bloccati.

Gestire la risorsa

Per visualizzare i dettagli delle risorse, ad esempio nome e piano tariffario, selezionare l'icona Impostazioni nell'angolo in alto a destra della home page di Studio di Sicurezza dei contenuti e selezionare la scheda Risorsa. Se si hanno altre risorse, è anche possibile cambiare risorsa qui.

Screenshot di Gestisci risorsa.

Pulire le risorse

Se si vuole pulire e rimuovere una risorsa dei servizi di intelligenza artificiale di Azure, è possibile eliminare la risorsa o il gruppo di risorse. L'eliminazione del gruppo di risorse comporta anche l'eliminazione di tutte le altre risorse associate.

Passaggi successivi

Iniziare quindi a usare Azure AI Content Safety tramite le API REST o un SDK client, in modo da poter integrare facilmente il servizio nell'applicazione.