Condividere informazioni dettagliate sull'intelligenza artificiale responsabile usando la scorecard di intelligenza artificiale responsabile (anteprima)

Il dashboard di intelligenza artificiale responsabile è progettato per professionisti dell'apprendimento automatico e scienziati dei dati per esplorare e valutare le informazioni dettagliate sui modelli e prendere decisioni basate sui dati. Anche se può essere utile per implementare praticamente l'intelligenza artificiale responsabile nel ciclo di vita dell'apprendimento automatico, esistono alcune esigenze che non sono state risolte:

  • Spesso esiste un divario tra gli strumenti tecnici dell'intelligenza artificiale responsabile (progettati per i professionisti dell'apprendimento automatico) e i requisiti etici, normativi e aziendali che definiscono l'ambiente di produzione.
  • Anche se un ciclo di vita dell'apprendimento automatico end-to-end include nel ciclo sia le parti interessate tecniche che quelle non tecniche, c'è poco supporto per consentire un efficace allineamento tra più parti interessate, aiutando gli esperti tecnici a ottenere feedback e indicazioni tempestive dalle parti interessate non tecniche.
  • Le normative sull'intelligenza artificiale rendono essenziale la possibilità di condividere informazioni dettagliate su modelli e dati con revisori e responsabili del rischio ai fini della verificabilità.

Uno dei maggiori vantaggi dell'uso dell'ecosistema di Azure Machine Learning è correlato all'archiviazione di informazioni dettagliate su modelli e dati nella cronologia di esecuzione di Azure Machine Learning (per una rapida consultazione in futuro). Come parte di tale infrastruttura e per accompagnare i modelli di apprendimento automatico e i rispettivi dashboard di intelligenza artificiale responsabile, introduciamo la scorecard di intelligenza artificiale responsabile per consentire ai professionisti dell'apprendimento automatico di generare e condividere facilmente i propri dati e record di integrità dei modelli.

Importante

Questa funzionalità è attualmente in anteprima pubblica. Questa versione di anteprima viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero presentare funzionalità limitate.

Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.

Chi deve usare una scorecard di intelligenza artificiale responsabile?

  • Gli scienziati dei dati o i professionisti dell'apprendimento automatico, dopo aver eseguito il training del modello e aver generato i dashboard di intelligenza artificiale responsabile corrispondenti per scopi di valutazione e processo decisionale, possono estrarre tali apprendimenti tramite la scorecard in PDF e condividere facilmente il report con le parti interessate tecniche e non tecniche per creare fiducia e ottenere l'approvazione per la distribuzione.

  • I product manager, i leader aziendali o le parti interessate responsabili di un prodotto di intelligenza artificiale possono passare i valori di destinazione desiderati per le prestazioni e l'equità del modello, ad esempio l'accuratezza della destinazione, la frequenza degli errori di destinazione e così via, al team di data science, chiedendo loro di generare questa scorecard in relazione ai valori di destinazione identificati e se il modello li soddisfa. Ciò può fornire indicazioni sull'opportunità di distribuire o migliorare ulteriormente il modello.

Passaggi successivi