Condividi tramite


Gestire l'intelligenza artificiale

Questo articolo illustra come stabilire un processo aziendale per la governance dell'IA. Queste linee guida consentono di integrare la gestione dei rischi di intelligenza artificiale nelle strategie di gestione dei rischi più ampie, creando un approccio unificato alla governance dell'IA, della cybersecurity e della privacy. Il processo segue il NIST Artificial Intelligence Risk Management Framework (AI RMF) e il NIST AI RMF Playbook. Le linee guida sono allineate al framework in CAF Govern.

Valutare i rischi dell'organizzazione di intelligenza artificiale

La valutazione dei rischi di intelligenza artificiale identifica i potenziali rischi che le tecnologie di intelligenza artificiale introducono nell'organizzazione. Questa valutazione crea fiducia nei sistemi di IA e riduce le conseguenze impreviste. È necessario eseguire valutazioni approfondite dei rischi per garantire che le distribuzioni di intelligenza artificiale siano allineate ai valori, alla tolleranza dei rischi e agli obiettivi operativi dell'organizzazione. Ecco come fare:

  1. Comprendere i carichi di lavoro di intelligenza artificiale. Ogni carico di lavoro di intelligenza artificiale presenta rischi univoci in base allo scopo, all'ambito e all'implementazione. È necessario chiarire la funzione specifica, le origini dati e i risultati previsti per ogni carico di lavoro di intelligenza artificiale per eseguire il mapping efficace dei rischi associati. Documentare eventuali presupposti e limitazioni correlati a ogni carico di lavoro di intelligenza artificiale per stabilire limiti chiari per la valutazione dei rischi.

  2. Usare i principi di IA responsabile per identificare i rischi. I principi di IA responsabile forniscono un framework strutturato per una valutazione completa dei rischi. È necessario valutare ogni carico di lavoro di intelligenza artificiale rispetto a questi principi per identificare potenziali vulnerabilità e problemi etici. Usare la tabella seguente per guidare il processo di identificazione dei rischi:

    Principio dell'IA responsabile Definizione Domanda di valutazione dei rischi
    Privacy e sicurezza dell'intelligenza artificiale I carichi di lavoro di intelligenza artificiale devono rispettare la privacy e essere sicuri. In che modo i carichi di lavoro di intelligenza artificiale possono gestire i dati sensibili o diventare vulnerabili alle violazioni della sicurezza?
    Affidabilità e sicurezza I carichi di lavoro di intelligenza artificiale devono essere eseguiti in modo sicuro e affidabile. In quali situazioni i carichi di lavoro di intelligenza artificiale potrebbero non funzionare in modo sicuro o produrre risultati inaffidabili?
    Equità I carichi di lavoro di intelligenza artificiale devono trattare le persone in modo equo. In che modo i carichi di lavoro di intelligenza artificiale possono comportare un trattamento diverso o un pregiudizio imprevisto nel processo decisionale?
    Inclusione I carichi di lavoro di intelligenza artificiale devono essere inclusivi e potenti. In che modo alcuni gruppi possono essere esclusi o svantaggiati nella progettazione o nella distribuzione dei carichi di lavoro di intelligenza artificiale?
    Trasparenza I carichi di lavoro di intelligenza artificiale devono essere comprensibili. Quali aspetti del processo decisionale dell'IA potrebbero essere difficili da comprendere o spiegare agli utenti?
    Responsabilità Gli utenti devono essere responsabili dei carichi di lavoro di intelligenza artificiale. Dove potrebbe non essere chiaro o difficile stabilire nello sviluppo o nell'uso dell'IA?
  3. Identificare rischi di intelligenza artificiale specifici. L'identificazione dei rischi richiede una valutazione sistematica delle vulnerabilità di sicurezza, operative ed etiche. È necessario valutare potenziali violazioni dei dati, accesso non autorizzato, manipolazione del modello e scenari impropri per ogni carico di lavoro di intelligenza artificiale. Consultare gli stakeholder di diversi reparti per scoprire i rischi che i team tecnici potrebbero ignorare e valutare sia gli impatti quantitativi (perdite finanziarie, riduzione delle prestazioni) che gli impatti qualitativi (danni alla reputazione, attendibilità degli utenti) per determinare la tolleranza ai rischi dell'organizzazione.

  4. Identificare i rischi dalle dipendenze esterne. Le dipendenze esterne introducono vettori di rischio aggiuntivi che richiedono un'attenta valutazione. È necessario valutare i rischi derivanti da origini dati di terze parti, modelli di intelligenza artificiale, librerie software e integrazioni api da cui dipendono i carichi di lavoro di intelligenza artificiale. Risolvere potenziali problemi, ad esempio vulnerabilità di sicurezza, problemi di qualità dei dati, distorsioni nei set di dati esterni, conflitti di proprietà intellettuale e affidabilità del fornitore stabilendo criteri chiari che garantiscono dipendenze esterne allineate agli standard di privacy, sicurezza e conformità dell'organizzazione.

  5. Valutare i rischi di integrazione. I carichi di lavoro di intelligenza artificiale operano raramente in isolamento e creano nuovi rischi quando sono integrati con i sistemi esistenti. È necessario valutare il modo in cui i carichi di lavoro di intelligenza artificiale si connettono con applicazioni, database e processi aziendali correnti per identificare potenziali punti di errore. Documentare rischi specifici, ad esempio le catena di dipendenze in cui l'errore di intelligenza artificiale influisce su più sistemi, una maggiore complessità del sistema che rende difficile la risoluzione dei problemi, le incompatibilità del formato dei dati, i colli di bottiglia delle prestazioni e i gap di sicurezza nei punti di integrazione che potrebbero compromettere la funzionalità complessiva del sistema.

Documentare i criteri di governance dell'intelligenza artificiale

I criteri di governance dell'IA forniscono un framework strutturato per l'uso responsabile dell'IA all'interno dell'organizzazione. Questi criteri allineano le attività di IA agli standard etici, ai requisiti normativi e agli obiettivi aziendali. È necessario documentare i criteri che affrontano i rischi di intelligenza artificiale identificati in base alla tolleranza ai rischi dell'organizzazione. Ecco alcuni esempi di criteri di governance dell'intelligenza artificiale:

Area dei criteri di governance dell'intelligenza artificiale Raccomandazioni sui criteri di governance dell'intelligenza artificiale
Definire i criteri per la selezione e l'onboarding dei modelli Definire i criteri per la selezione dei modelli di intelligenza artificiale. I criteri devono definire i criteri per la scelta dei modelli che soddisfano valori, funzionalità e vincoli di costo dell'organizzazione. Esaminare i modelli potenziali per l'allineamento con la tolleranza di rischio e i requisiti di attività previsti.

Eseguire l'onboarding di nuovi modelli con criteri strutturati. Un processo formale per l'onboarding dei modelli mantiene la coerenza nella giustificazione, nella convalida e nell'approvazione del modello. Usare gli ambienti sandbox per gli esperimenti iniziali, quindi convalidare ed esaminare i modelli nel catalogo di produzione per evitare la duplicazione.
Definire i criteri per l'uso di strumenti e dati di terze parti Impostare i controlli per gli strumenti di terze parti. Un processo di verifica per gli strumenti di terze parti protegge dai rischi di sicurezza, conformità e allineamento. I criteri devono includere linee guida per la privacy dei dati, la sicurezza e gli standard etici quando si usano set di dati esterni.

Definire gli standard di riservatezza dei dati. Mantenere separati i dati sensibili e pubblici è essenziale per mitigare i rischi di IA. Creare criteri per la gestione e la separazione dei dati.

Definire gli standard di qualità dei dati. Un "set di dati d'oro" fornisce un benchmark affidabile per il test e la valutazione del modello di intelligenza artificiale. Definire criteri chiari per la coerenza e la qualità dei dati per garantire output affidabili e prestazioni elevate.
Definire i criteri per la gestione e il monitoraggio dei modelli Specificare la frequenza di ripetizione del training in base al caso d'uso. La ripetizione frequente del training supporta l'accuratezza per i carichi di lavoro di intelligenza artificiale ad alto rischio. Definire linee guida che considerino il caso d'uso e il livello di rischio di ogni modello, in particolare per settori come il settore sanitario e finanziario.

Monitorare la riduzione delle prestazioni. Il monitoraggio delle prestazioni del modello nel tempo consente di rilevare i problemi prima che influiscano sui risultati. I benchmark dei documenti e, se le prestazioni di un modello diminuisce, avviano un processo di ripetizione del training o revisione.
Definire i criteri per la conformità alle normative Rispettare i requisiti legali regionali. Comprendere le leggi regionali garantisce che le operazioni di intelligenza artificiale rimangano conformi tra le posizioni. Ricercare le normative applicabili per ogni area di distribuzione, ad esempio leggi sulla privacy dei dati, standard etici e normative del settore.

Sviluppare criteri specifici dell'area. Adattare i criteri di intelligenza artificiale alle considerazioni a livello di area supporta la conformità agli standard locali. I criteri possono includere il supporto linguistico, i protocolli di archiviazione dei dati e gli adattamenti culturali.

Adattare l'intelligenza artificiale per la variabilità a livello di area. La flessibilità nei carichi di lavoro di intelligenza artificiale consente di rettifiche di funzionalità specifiche della posizione. Per le operazioni globali, gli adattamenti specifici dell'area del documento, ad esempio i dati di training localizzati e le restrizioni delle funzionalità.
Definire i criteri per la condotta degli utenti Definire strategie di mitigazione dei rischi per l'uso improprio. I criteri di prevenzione dell'uso improprio consentono di proteggersi da danni intenzionali o involontari. Delineare possibili scenari di uso improprio e incorporare controlli, ad esempio funzionalità limitate o funzionalità di rilevamento improprio.

Impostare le linee guida per la condotta degli utenti. I contratti utente chiarisce i comportamenti accettabili durante l'interazione con il carico di lavoro di intelligenza artificiale, riducendo il rischio di uso improprio. Bozza di condizioni d'uso chiare per comunicare gli standard e supportare l'interazione responsabile dell'IA.
Definire i criteri per l'integrazione e la sostituzione dell'intelligenza artificiale Strutturare i criteri di integrazione. Le linee guida di integrazione garantiscono che i carichi di lavoro di intelligenza artificiale mantengano l'integrità e la sicurezza dei dati durante l'interfaccia del carico di lavoro. Specificare i requisiti tecnici, i protocolli di condivisione dei dati e le misure di sicurezza.

Pianificare la transizione e la sostituzione. I criteri di transizione forniscono una struttura quando si sostituiscono i processi precedenti con carichi di lavoro di intelligenza artificiale. Delineare i passaggi per la suddivisione in fasi dei processi legacy, del personale di formazione e del monitoraggio delle prestazioni durante il cambiamento.

Applicare i criteri di governance dell'intelligenza artificiale

L'applicazione dei criteri di governance dell'IA gestisce procedure di IA coerenti ed etiche nell'intera organizzazione. È consigliabile usare strumenti automatizzati e interventi manuali per garantire la conformità dei criteri in tutte le distribuzioni di intelligenza artificiale. Ecco come fare:

  1. Automatizzare l'applicazione dei criteri laddove possibile. L'applicazione automatizzata riduce l'errore umano e garantisce un'applicazione di criteri coerente in tutte le distribuzioni di intelligenza artificiale. L'automazione fornisce il monitoraggio in tempo reale e la risposta immediata alle violazioni dei criteri, che i processi manuali non possono corrispondere in modo efficace. Usare piattaforme come Criteri di Azure e Microsoft Purview per applicare automaticamente i criteri nelle distribuzioni di intelligenza artificiale e valutare regolarmente le aree in cui l'automazione può migliorare la conformità ai criteri.

  2. Applicare manualmente i criteri di intelligenza artificiale in cui l'automazione non è sufficiente. L'applicazione manuale risolve scenari complessi che richiedono un giudizio umano e fornisce formazione essenziale per la consapevolezza dei criteri. La supervisione umana garantisce che i criteri si adattino a situazioni specifiche e mantengano la comprensione organizzativa dei principi di governance dell'IA. Fornire formazione sui rischi e sulla conformità dell'IA per i dipendenti per assicurarsi di comprendere il proprio ruolo nella governance dell'IA, condurre workshop regolari per mantenere aggiornato il personale sui criteri di IA ed eseguire controlli periodici per monitorare l'adesione e identificare le aree per il miglioramento.

  3. Usare le linee guida per la governance relative al carico di lavoro per un'applicazione mirata. Le linee guida specifiche del carico di lavoro riguardano requisiti di sicurezza e conformità univoci per modelli di distribuzione di intelligenza artificiale diversi. Questo approccio garantisce che i criteri siano allineati all'architettura tecnica e al profilo di rischio di ogni tipo di carico di lavoro di intelligenza artificiale. Usare indicazioni dettagliate sulla sicurezza disponibili per i carichi di lavoro di intelligenza artificiale nei servizi della piattaforma Di Azure (PaaS) e nell'infrastruttura di Azure (IaaS) per gestire modelli, risorse e dati di intelligenza artificiale all'interno di questi tipi di carico di lavoro.

Monitorare i rischi dell'organizzazione di intelligenza artificiale

Il monitoraggio dei rischi identifica le minacce emergenti e garantisce che i carichi di lavoro di intelligenza artificiale funzionino come previsto. La valutazione continua mantiene l'affidabilità del sistema e impedisce effetti negativi. È necessario stabilire un monitoraggio sistematico per adattarsi alle condizioni in evoluzione e affrontare i rischi prima che influiscano sulle operazioni. Ecco come fare:

  1. Stabilire procedure per la valutazione dei rischi in corso. Le valutazioni regolari dei rischi forniscono il rilevamento anticipato delle minacce emergenti e della riduzione delle prestazioni del sistema. È necessario creare processi di revisione strutturati che coinvolgono gli stakeholder di tutta l'organizzazione per valutare gli impatti più ampi dell'IA e mantenere la consapevolezza completa dei rischi. Pianificare valutazioni trimestrali dei rischi per carichi di lavoro di intelligenza artificiale ad alto rischio e valutazioni annuali per i sistemi a basso rischio e sviluppare piani di risposta che delineano azioni specifiche per diversi scenari di rischio per abilitare la mitigazione rapida in caso di problemi.

  2. Sviluppare un piano di misurazione completo. Un piano di misurazione strutturato garantisce una raccolta e un'analisi coerenti dei dati in tutti i carichi di lavoro di intelligenza artificiale. È necessario definire metodi di raccolta dati chiari che combinano la registrazione automatica per le metriche operative con sondaggi e interviste per feedback qualitativo da parte di utenti e stakeholder. Stabilire la frequenza di misurazione in base ai livelli di rischio del carico di lavoro, concentrandosi sugli sforzi di monitoraggio su aree ad alto rischio e creare cicli di feedback che usano i risultati della misurazione per perfezionare le valutazioni dei rischi e migliorare i processi di monitoraggio.

  3. Quantificare e qualificare sistematicamente i rischi di IA. La misurazione del rischio bilanciato richiede metriche quantitative e indicatori qualitativi allineati allo scopo specifico di ogni carico di lavoro e al profilo di rischio. È necessario selezionare metriche quantitative appropriate, ad esempio tassi di errore, punteggi di accuratezza e benchmark delle prestazioni insieme a indicatori qualitativi, tra cui feedback degli utenti, problemi etici e soddisfazione degli stakeholder. Eseguire il benchmark delle prestazioni rispetto agli standard del settore e ai requisiti normativi per tenere traccia dell'affidabilità, dell'efficacia e della conformità dell'intelligenza artificiale nel tempo.

  4. Documentare e segnalare i risultati delle misurazioni in modo coerente. La documentazione sistematica e la creazione di report migliorano la trasparenza e supportano il processo decisionale informato nell'organizzazione. È necessario creare report standardizzati che riepilogino le metriche chiave, i risultati significativi e le eventuali anomalie rilevate durante le attività di monitoraggio. Condividere queste informazioni con gli stakeholder interessati tramite briefing regolari e usare i risultati per perfezionare le strategie di mitigazione dei rischi, aggiornare i criteri di governance e migliorare le future distribuzioni di intelligenza artificiale.

  5. Stabilire processi di revisione indipendenti. Le revisioni indipendenti forniscono valutazioni obiettive che i team interni potrebbero perdere a causa della familiarità o del pregiudizio. È necessario implementare revisioni regolari indipendenti usando revisori esterni o revisori interni non involontari che possono valutare i rischi di intelligenza artificiale e la conformità in modo obiettivo. Usare i risultati della revisione per identificare i punti ciechi nelle valutazioni dei rischi, rafforzare i criteri di governance e convalidare l'efficacia degli approcci di monitoraggio correnti.

Passaggio successivo

Mitigazioni dei rischi di intelligenza artificiale di esempio

La tabella seguente elenca alcuni rischi comuni di intelligenza artificiale e fornisce una strategia di mitigazione e un criterio di esempio per ognuno di essi. La tabella non elenca un set completo di rischi.

ID rischio Rischio di intelligenza artificiale Strategia di riduzione del rischio Criteri
R001 Mancata conformità alle leggi sulla protezione dei dati Usare Microsoft Purview Compliance Manager per valutare la conformità dei dati. Il ciclo di vita dello sviluppo della sicurezza deve essere implementato per garantire che tutto lo sviluppo e la distribuzione di intelligenza artificiale siano conformi alle leggi sulla protezione dei dati.
R005 Mancanza di trasparenza nel processo decisionale dell'IA Applicare un framework e un linguaggio standardizzati per migliorare la trasparenza nei processi di intelligenza artificiale e nel processo decisionale. Il framework di gestione dei rischi dell'IA NIST deve essere adottato e tutti i modelli di intelligenza artificiale devono essere documentati accuratamente per mantenere la trasparenza di tutti i modelli di intelligenza artificiale.
R006 Stime imprecise Usare Azure Gestione API per tenere traccia delle metriche del modello di intelligenza artificiale per garantire l'accuratezza e l'affidabilità. È necessario usare il monitoraggio continuo delle prestazioni e il feedback umano per garantire che le stime del modello di intelligenza artificiale siano accurate.
R007 Attacco antagonista Usare PyRIT per testare i carichi di lavoro di intelligenza artificiale per individuare vulnerabilità e rafforzare le difese. Per proteggere i carichi di lavoro di intelligenza artificiale da attacchi antagonisti, è necessario usare il test del team rosso security development and AI red team testing (Ciclo di vita dello sviluppo della sicurezza e del team rosso di intelligenza artificiale).
R008 Minacce Insider Usare Microsoft Entra ID per applicare controlli di accesso rigorosi basati su ruoli e appartenenze ai gruppi per limitare l'accesso insider ai dati sensibili. Per attenuare le minacce interne, è necessario usare la gestione rigorosa delle identità e degli accessi e il monitoraggio continuo.
R009 Costi imprevisti Usare Gestione costi Microsoft per tenere traccia dell'utilizzo di CPU, GPU, memoria e archiviazione per garantire un utilizzo efficiente delle risorse e prevenire picchi di costi. Per gestire i costi imprevisti, è necessario usare il monitoraggio e l'ottimizzazione dell'utilizzo delle risorse e il rilevamento automatizzato dei sovraccarichi dei costi.
R010 Sottoutilizzazione delle risorse di intelligenza artificiale Monitorare le metriche del servizio di intelligenza artificiale, ad esempio i tassi di richiesta e i tempi di risposta, per ottimizzare l'utilizzo. Le metriche delle prestazioni e la scalabilità automatizzata devono essere usate per ottimizzare l'utilizzo delle risorse di intelligenza artificiale.