Usare l'intelligenza artificiale in modo responsabile con Microsoft Foundry Content Safety

Intermedio
AI engineer
Sviluppatore
Architetto di soluzioni
Student
Servizi di Azure AI

Microsoft Foundry Content Safety è uno strumento completo progettato per rilevare e gestire contenuti dannosi nei materiali generati dall'utente e generati dall'IA. Informazioni su come Microsoft Foundry Content Safety usa API di testo e immagine per identificare e filtrare contenuti correlati a violenza, odio, contenuto sessuale e autolesionismo.

Obiettivi di apprendimento

Al termine del modulo, si sarà in grado di:

  • Descrivere Microsoft Foundry Content Safety.
  • Descrivere il funzionamento di Foundry Content Safety.
  • Descrivere quando usare Foundry Content Safety.

Prerequisiti

Prima di iniziare il modulo, è consigliabile acquisire familiarità con Azure e l’uso del portale di Azure. È anche opportuno avere esperienza di programmazione con C# o Python. Se non si ha alcuna esperienza di programmazione precedente, è consigliabile completare il percorso di apprendimento Muovere i primi passi con C# or Muovere i primi passi con Python prima di iniziare questo.