Usare l'intelligenza artificiale in modo responsabile con Microsoft Foundry Content Safety
Microsoft Foundry Content Safety è uno strumento completo progettato per rilevare e gestire contenuti dannosi nei materiali generati dall'utente e generati dall'IA. Informazioni su come Microsoft Foundry Content Safety usa API di testo e immagine per identificare e filtrare contenuti correlati a violenza, odio, contenuto sessuale e autolesionismo.
Obiettivi di apprendimento
Al termine del modulo, si sarà in grado di:
- Descrivere Microsoft Foundry Content Safety.
- Descrivere il funzionamento di Foundry Content Safety.
- Descrivere quando usare Foundry Content Safety.
Prerequisiti
Prima di iniziare il modulo, è consigliabile acquisire familiarità con Azure e l’uso del portale di Azure. È anche opportuno avere esperienza di programmazione con C# o Python. Se non si ha alcuna esperienza di programmazione precedente, è consigliabile completare il percorso di apprendimento Muovere i primi passi con C# or Muovere i primi passi con Python prima di iniziare questo.