Condividi tramite


Applicare i principi di IA responsabile

Un sistema di intelligenza artificiale include non solo la tecnologia, ma anche le persone che la utilizzano, le persone interessate da essa e l'ambiente in cui viene implementata. Gli agenti devono aderire ai principi dell'IA responsabile per garantire equità, responsabilità, trasparenza ed etica.

Progettare il sistema di intelligenza artificiale in modo da trattare tutti gli utenti in modo equo, ritenere gli sviluppatori e gli utenti responsabili delle sue prestazioni, garantire la trasparenza nelle operazioni di intelligenza artificiale e rispettare gli standard etici.

Microsoft si impegna costantemente a migliorare l'IA basandosi su principi che pongano al primo posto le persone. I modelli generativi presentano potenziali vantaggi significativi, ma senza un'attenta progettazione e mitigazioni ponderate, tali modelli possono generare contenuti errati o addirittura dannosi. Microsoft ha effettuato investimenti significativi per aiutare a proteggersi da abusi e danni non intenzionali, che includono l'integrazione dei principi per l'uso responsabile dell'IA di Microsoft, adottando un codice di comportamento, la creazione di filtri di contenuti per supportare i clienti e la fornitura di informazioni e linee guida sull'IA responsabile che i clienti dovrebbero prendere in considerazione quando utilizzano l'IA generativa.

Le funzionalità di Copilot Studio e di IA generativa seguono un insieme di pratiche fondamentali di sicurezza e privacy e lo Standard Microsoft Responsible AI.

Ulteriori informazioni:

Principi fondamentali dell'IA responsabile

I principi fondamentali dell'IA responsabile includono equità, responsabilità, trasparenza ed etica. Garantire che un agente costruito con Copilot Studio rispetti questi principi fondamentali comporta diverse pratiche chiave:

  • Equità: utilizza dati di training diversificati e rappresentativi per ridurre al minimo le distorsioni. Aggiorna regolarmente i dati di addestramento e arruola revisori per convalidare la correttezza e l'equità.
  • Responsabilità: definisci ruoli e responsabilità chiari per i membri del team coinvolti nel progetto di intelligenza artificiale. Stabilisci e aderisci a standard etici che diano priorità all'equità e alla responsabilità.
  • Trasparenza: Assicurati che gli utenti sappiano di utilizzare un agente che utilizza capacità di IA generativa. Comunica chiaramente perché è stata scelta una soluzione di intelligenza artificiale, come è stata progettata e come viene monitorata e aggiornata.
  • Etica: promuove una forza lavoro inclusiva e cerca il contributo di comunità diverse nelle prime fasi del processo di sviluppo. Valuta e testa regolarmente i modelli per individuare le preoccupazioni etiche e le disparità nelle prestazioni. Stabilisci un framework di governance che includa controlli regolari.

Incorpora queste pratiche nei tuoi processi di sviluppo e distribuzione per creare agenti che rispettino i principi fondamentali dell'IA responsabile.

Privacy e sicurezza dei dati

Garantire la privacy dei dati è fondamentale, soprattutto perché l'agente potrebbe gestire dati sensibili. Quando si pianifica un agente con Copilot Studio, è essenziale affrontare diversi rischi chiave e implementare strategie di mitigazione efficaci:

  • Funzionalità della piattaforma: scopri i controlli nativi e le funzionalità della piattaforma che proteggono i tuoi dati. Consulta le FAQ su Responsible AI per Copilot Studio per comprendere meglio i sistemi e le funzionalità di IA specifiche sviluppate da Microsoft.
  • Crittografia dei dati: le tecnologie lato servizio crittografano i contenuti inattivi e in transito dell'organizzazione a favore di una sicurezza solida. Le connessioni sono salvaguardate con il protocollo Transport Layer Security (TLS) e i trasferimenti di dati tra Dynamics 365, Power Platform e OpenAI di Azure avvengono sulla rete backbone Microsoft, garantendo così affidabilità e sicurezza. Altre informazioni sulla crittografia in Microsoft Cloud.
  • Controlli di accesso: I dati sono forniti a un agente in base al livello di accesso dell'utente corrente. Implementa il controllo degli accessi in base al ruolo (RBAC) tramite Microsoft Entra ID per garantire che solo gli utenti autorizzati possano accedere ai dati. Applica il principio del privilegio minimo per limitare l'accesso solo a ciò che è necessario. Consulta le linee guida su come proteggere i tuoi progetti di Copilot Studio e i concetti chiave di sicurezza e governance di Copilot Studio.
  • Monitoraggio e audit: Rilevare e rispondere a potenziali incidenti di sicurezza monitorando regolarmente l'accesso e l'utilizzo dell'agente. Gestisci registri di controllo dettagliati per tenere traccia dell'accesso e delle modifiche ai dati.
  • Conformità e governance: garantisci la conformità alle normative sulla privacy dei dati pertinenti, come GDPR (Regolamento generale sulla protezione dei dati), HIPAA (Health Insurance Portability and Accountability Act) e CCPA (California Consumer Privacy Act). Implementa pratiche etiche di IA per evitare distorsioni e garantire l'equità nei risultati dell'IA.
  • Educazione degli utenti e formazione: formare gli utenti sulle procedure consigliate di sicurezza e sull'importanza della privacy dei dati. Tieni informati gli utenti sugli aggiornamenti e sulle modifiche ai criteri e alle procedure di sicurezza.

Consapevolezza e mitigazione dei pregiudizi

Riconosci l'importanza di affrontare i pregiudizi nel sistema e garantire l'equità per evitare distorsioni nelle risposte dell'IA.

  • Dati vari e rappresentativi: assicurati che i dati di formazione siano vari e rappresentativi dei diversi dati demografici per ridurre al minimo le distorsioni intrinseche. Controlla regolarmente i dati per individuare distorsioni e squilibri e intraprendere azioni correttive se necessario.
  • Strumenti di rilevamento e mitigazione delle distorsioni: utilizza strumenti e tecniche per rilevare le distorsioni nei modelli di intelligenza artificiale, come l'analisi statistica e le metriche di equità. Implementa tecniche di debiasing, tra cui il ricampionamento, la riponderazione o l'adversarial debiasing, per ridurre le distorsioni nei modelli.
  • Intervento umano nel ciclo: integra cicli di revisione e feedback umani per identificare e correggere i pregiudizi che l'IA potrebbe introdurre. Istituisci un comitato etico o un comitato di governance per supervisionare lo sviluppo e l'implementazione dell'IA, garantendo il rispetto degli standard etici.
  • Trasparenza e fiducia: Assicurati che gli utenti sappiano di utilizzare un agente che utilizza capacità di IA generativa. Comunica chiaramente perché è stata scelta una soluzione di intelligenza artificiale e fornisci informazioni su come è stata progettata e su come viene monitorata e aggiornata.
  • Monitoraggio e miglioramento continui: monitora continuamente il sistema di intelligenza artificiale alla ricerca di distorsioni e problemi di prestazioni e aggiorna i modelli secondo necessità. Assicurati che i modelli rimangano equi e imparziali ripetendo regolarmente il training dei modelli con dati aggiornati e più diversificati.

Monitoraggio e valutazione continui

Continua a migliorare il tuo agente. Stabilire un quadro per il monitoraggio e la valutazione continui, e incorporare il feedback degli utenti e gli standard etici in evoluzione negli aggiornamenti.

  • Cicli di feedback: stabilisci meccanismi di feedback in cui gli utenti possono segnalare imprecisioni, che possono quindi essere utilizzate per perfezionare e migliorare i modelli.
  • Monitoraggio e controllo: rileva e rispondi a potenziali incidenti di sicurezza monitorando regolarmente l'accesso e l'utilizzo del sistema di intelligenza artificiale. Gestisci registri di controllo dettagliati per tenere traccia dell'accesso e delle modifiche ai dati.

Passo successivo

Usa la checklist riassuntiva per verificare se il tuo progetto è pronto a procedere con l'implementazione e applica le migliori pratiche per perfezionare l'approccio al progetto prima di passare alla fase di implementazione.