Usare l'intelligenza artificiale in modo responsabile con Azure AI Foundry Content Safety
Azure AI Foundry Content Safety è uno strumento completo progettato per rilevare e gestire contenuti dannosi nei materiali generati dall'utente e generati dall'intelligenza artificiale. Informazioni su come Azure AI Foundry Content Safety usa api di testo e immagine per identificare e filtrare contenuti correlati a violenza, odio, contenuto sessuale e autolesionismo.
Obiettivi di apprendimento
Gli obiettivi del modulo sono:
- Descrivi Azure AI Foundry Content Safety.
- Descrivere il funzionamento di Foundry Content Safety.
- Descrivere quando usare Foundry Content Safety.
Prerequisiti
Prima di iniziare il modulo, è consigliabile acquisire familiarità con Azure e l’uso del portale di Azure. È anche opportuno avere esperienza di programmazione con C# o Python. Se non si ha alcuna esperienza di programmazione precedente, è consigliabile completare il percorso di apprendimento Muovere i primi passi con C# or Muovere i primi passi con Python prima di iniziare questo.