Adottare principi di intelligenza artificiale responsabile e attendibile
I sei principi guida per un'IA responsabile in Microsoft sono equità, affidabilità e sicurezza, privacy e sicurezza, inclusività, trasparenza e responsabilità. Usare questi principi per creare l'IA responsabile e affidabile durante l'integrazione in prodotti e servizi mainstream durante il percorso di adozione dell'IA.
Principi di intelligenza artificiale responsabile
Microsoft si impegna a promuovere pratiche di intelligenza artificiale responsabili.
Sei principi chiave definiscono l'IA responsabile:
Equità: i sistemi di IA devono trattare tutti allo stesso modo e fornire le stesse raccomandazioni a tutti gli individui. L'equità nei sistemi di IA impedisce la discriminazione basata sulle caratteristiche personali.
Affidabilità e sicurezza: i sistemi di intelligenza artificiale devono operare in modo affidabile, sicuro e coerente in varie condizioni per contribuire a creare fiducia.
Privacy e sicurezza: i sistemi di intelligenza artificiale devono rispettare la privacy e mantenere la sicurezza proteggendo le informazioni private e riservate. Devono anche resistere agli attacchi e ai tentativi di danneggiare o compromettere il sistema.
Inclusione: i sistemi di intelligenza artificiale devono offrire opportunità a tutti e coinvolgere tutti. Le pratiche di progettazione inclusiva possono aiutare gli sviluppatori di sistemi di intelligenza artificiale a comprendere e affrontare le potenziali barriere di esclusione in un prodotto o servizio. L'inclusività promuove l'innovazione e aiuta a progettare esperienze che traggono vantaggio da tutti.
Trasparenza: i sistemi di intelligenza artificiale devono essere trasparenti e comprensibili. I sistemi di intelligenza artificiale possono informare le decisioni che possono influire profondamente sulla vita delle persone, quindi è fondamentale per gli individui comprendere come il sistema prende queste decisioni.
Responsabilità: i sistemi di intelligenza artificiale e i relativi sviluppatori devono essere responsabili e rispondibili.
Incorporare i principi di IA responsabili durante il percorso di adozione dell'IA, dalla strategia e dalla pianificazione all'implementazione. Assicurarsi di applicare questi principi quando si proteggono, gestiscono e regolano le iniziative di intelligenza artificiale.
Queste linee guida per l'adozione dell'intelligenza artificiale includono esempi di come usare Cloud Adoption Framework per Azure per implementare procedure di IA responsabili. I principi dell'IA responsabile sono integrati nelle linee guida e nelle raccomandazioni in questo percorso di adozione dell'IA.
L'importanza dell'IA responsabile
L'IA responsabile consente di ridurre i rischi seguenti:
Conseguenze impreviste: pianificare e supervisionare l'implementazione responsabile dell'IA per ridurre il rischio di effetti imprevisti che hanno implicazioni etiche.
Nuove minacce: man mano che la tecnologia di IA si evolve, emergono nuove minacce. Per attenuare e rimanere al passo con queste minacce, rispettare i principi dell'IA responsabile.
Distorsione: la mitigazione della distorsione nell'IA può essere complessa, ma è necessaria per garantire che i sistemi di IA siano equi e non distorti. Usare i principi di IA responsabili per guidare l'utente.
Tecnologie sensibili: tecnologie come il riconoscimento facciale possono essere considerate tecnologie sensibili a causa del rischio di libertà fondamentali e diritti umani. Prendere in considerazione le implicazioni di queste tecnologie per assicurarsi di usarle in modo responsabile.
Facilitazione di Azure
Microsoft Azure offre una gamma di strumenti, servizi e risorse che consentono di creare sistemi di intelligenza artificiale responsabili.
Usare Sicurezza dei contenuti di Microsoft Azure AI per creare sistemi sicuri
Usare Sicurezza dei contenuti di Microsoft Azure AI per rilevare contenuti dannosi generati dagli utenti e dall'intelligenza artificiale in applicazioni e servizi. La sicurezza dei contenuti consente di analizzare i contenuti generati nelle applicazioni di intelligenza artificiale, inclusi testo e immagini, per assicurarsi che sia sicuro e appropriato per gli utenti. La sicurezza dei contenuti offre le funzionalità seguenti:
Protezioni rapide analizza testo e documenti per rilevare il rischio di un attacco all'input dell'utente, o jailbreak, su un modello linguistico di grandi dimensioni (LLM).
Il rilevamento Groundedness rileva se le risposte testuali di un LLM sono basate sui materiali di origine forniti dagli utenti.
Il rilevamento del materiale protetto rileva se le risposte di testo di un LLM contengono materiale protetto, ad esempio testo protetto da copyright, testi di canzoni, articoli e contenuti Web.
L'API Categorie personalizzate (rapida) definisce i modelli di contenuto dannosi emergenti e analizza testo e immagini alla ricerca di corrispondenze.
L'API Analizza testo analizza il contenuto di testo potenzialmente dannoso. Identifica in genere categorie come odio, autolesionismo e contenuto sessuale o violento.
L'API Analizza immagine analizza il potenziale contenuto di immagine dannoso. Identifica in genere categorie come odio, autolesionismo e contenuto sessuale o violento.
Usare l'intelligenza artificiale in modo responsabile nei servizi di Azure AI
Microsoft fornisce un elenco di note sulla trasparenza per i servizi di Azure pertinenti per l'intelligenza artificiale. L'elenco include i servizi all'interno della suite di servizi di Azure AI. Per maggiori informazioni, consultare la sezione Uso responsabile dell'intelligenza artificiale con i servizi di Azure AI.
Usare la dashboard di intelligenza artificiale responsabile per Azure Machine Learning
Se si creano sistemi con Azure Machine Learning, è possibile usare la dashboard di intelligenza artificiale responsabile per valutare i sistemi di intelligenza artificiale. La dashboard di intelligenza artificiale responsabile offre un'unica interfaccia per consentire di implementare i principi di intelligenza artificiale responsabile. Alcune delle funzionalità di intelligenza artificiale responsabile includono:
Analisi dei dati: comprendere ed esplorare le distribuzioni e le statistiche dei set di dati.
Panoramica del modello e valutazione dell'equità: valuta le prestazioni del tuo modello e i problemi di equità di gruppo del tuo modello.
Analisi degli errori: visualizza e comprendi come sono distribuiti gli errori nel tuo set di dati.
Interpretazione del modello: comprendere le stime del modello e il modo in cui il modello esegue stime singole e complessive.
Analisi di simulazione controfattuale: osservare come le modifiche apportate alle funzionalità possono influire sulle stime del modello.
Analisi delle cause: usare i dati cronologici per visualizzare gli effetti causali delle funzionalità di trattamento sui risultati nel mondo reale.
Sviluppare l'IA in modo responsabile
Risorsa | Descrizione |
---|---|
Strumenti pratici per la creazione di esperienze efficaci di intelligenza artificiale (HAX) | Usare HAX Toolkit nelle prime fasi del processo di progettazione per concettualizzare le operazioni del sistema di intelligenza artificiale e il suo comportamento. Usare HAX Toolkit per i prodotti di intelligenza artificiale rivolti agli utenti. |
Linee guida per l'intelligenza artificiale conversazionale | Progettare bot in modo da guadagnare la fiducia degli altri per aiutare persone e società a realizzare il loro pieno potenziale. Usare queste linee guida per creare un bot che crei attendibilità nell'azienda e nel servizio rappresentato. |
Linee guida per la progettazione dell'IA inclusiva | Usare queste linee guida per progettare l'intelligenza artificiale inclusiva e accessibile a tutti. |
Elenco di controllo per l'equità dell'intelligenza artificiale | Usare l'elenco di controllo di equità dell'intelligenza artificiale per determinare se il sistema di intelligenza artificiale è equo e non distorto. |
Intelligenza artificiale responsabile nel Machine Learning | Esaminare queste risorse di intelligenza artificiale responsabile se si usa Machine Learning per creare sistemi di intelligenza artificiale. |