Condividi tramite


Microsoft Purview protegge la sicurezza dei dati e la conformità per le app di intelligenza artificiale generativa

Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità

Usare Microsoft Purview per attenuare e gestire i rischi associati all'utilizzo dell'IA e implementare i controlli di protezione e governance corrispondenti.

Individuare, proteggere e rispettare categorie per l'utilizzo generativo dell'IA e i dati tramite Microsoft Purview.

Microsoft Purview Hub IA è attualmente in anteprima e offre strumenti grafici e report facili da usare per ottenere rapidamente informazioni dettagliate sull'uso dell'intelligenza artificiale all'interno dell'organizzazione. I criteri con un clic consentono di proteggere i dati e di rispettare i requisiti normativi.

Usare l'hub di intelligenza artificiale insieme ad altre funzionalità di Microsoft Purview per rafforzare la sicurezza e la conformità dei dati per Microsoft 365 Copilot e Microsoft Copilot:

Nota

Per verificare se i piani di licenza dell'organizzazione supportano queste funzionalità, vedere il collegamento alle linee guida sulle licenze nella parte superiore della pagina. Per informazioni sulle licenze per Microsoft 365 Copilot stesso, vedere la descrizione del servizio per Microsoft 365 Copilot.

Usare le sezioni seguenti per altre informazioni sull'hub di intelligenza artificiale e sulle funzionalità di Microsoft Purview che forniscono controlli aggiuntivi di sicurezza e conformità dei dati per accelerare l'adozione da parte dell'organizzazione di Microsoft 365 Copilot e altre app generative per intelligenza artificiale. Se non si ha familiarità con Microsoft Purview, è anche possibile trovare una panoramica del prodotto utile: Informazioni su Microsoft Purview.

Per informazioni più generali sui requisiti di sicurezza e conformità per Microsoft 365 Copilot, vedere Dati, privacy e sicurezza per Microsoft 365 Copilot. Per Microsoft Copilot, vedere Protezione e privacy copilot.

Microsoft Purview Hub IA fornisce informazioni dettagliate, criteri e controlli per le app per intelligenza artificiale

Nota

Microsoft Purview Hub IA è attualmente in anteprima e soggetto a modifiche.

L'hub di intelligenza artificiale dal portale di Microsoft Purview o dal Portale di conformità di Microsoft Purview offre una posizione di gestione centrale che consente di proteggere rapidamente i dati per le app per intelligenza artificiale e monitorare in modo proattivo l'uso dell'IA. Queste app includono Microsoft 365 Copilot e app per intelligenza artificiale di moduli di linguaggio di grandi dimensioni di terze parti.

Guardare il video seguente per vedere l'hub di intelligenza artificiale in azione. La registrazione è stata eseguita prima Microsoft Copilot per Microsoft 365 è stata rinominata in Microsoft 365 Copilot e alcune pagine di spostamento per l'hub di intelligenza artificiale vengono ora modificate. Ma la funzionalità rimane la stessa.

L'hub di intelligenza artificiale offre un set di funzionalità che consentono di adottare in modo sicuro l'intelligenza artificiale senza dover scegliere tra produttività e protezione:

  • Informazioni dettagliate e analisi sulle attività di intelligenza artificiale nell'organizzazione

  • Criteri pronti per l'uso per proteggere i dati e prevenire la perdita di dati nelle richieste di intelligenza artificiale

  • Controlli di conformità per applicare criteri ottimali per la gestione e l'archiviazione dei dati

Per un elenco dei siti di intelligenza artificiale di terze parti supportati, ad esempio quelli usati per Gemini e ChatGPT, vedere Siti di intelligenza artificiale supportati da Microsoft Purview per la protezione della sicurezza dei dati e della conformità.

Screenshot di esempio di Microsoft Purview Hub IA, analytics.

Come usare l'hub di intelligenza artificiale

Per ottenere più rapidamente informazioni dettagliate sull'utilizzo dell'IA e proteggere i dati, l'hub di intelligenza artificiale fornisce alcuni criteri preconfigurati che è possibile attivare con un solo clic. Consentire almeno 24 ore affinché questi nuovi criteri possano raccogliere dati per visualizzare i risultati nell'hub di intelligenza artificiale o riflettere eventuali modifiche apportate alle impostazioni predefinite.

Per iniziare a usare l'hub di intelligenza artificiale, è possibile usare il portale di Microsoft Purview o il Portale di conformità di Microsoft Purview. È necessario un account con autorizzazioni appropriate per la gestione della conformità, ad esempio un account membro del ruolo del gruppo Amministratore conformità Microsoft Entra.

  1. A seconda del portale in uso, passare a una delle posizioni seguenti:

  2. In Panoramica vedere la sezione Introduzione per altre informazioni sull'hub di intelligenza artificiale e sulle azioni immediate che è possibile eseguire. Selezionare ognuno di essi per visualizzare il riquadro a comparsa per altre informazioni, eseguire azioni e verificare lo stato corrente.

    Azione Ulteriori informazioni
    Attivare Microsoft Purview Audit Il controllo è attivato per impostazione predefinita per i nuovi tenant, quindi è possibile che si soddisfi già questo prerequisito. In tal caso, e agli utenti sono già state assegnate licenze per Copilot, si iniziano a visualizzare informazioni dettagliate sulle attività copilot dalla sezione Analisi più in basso nella pagina.
    Installare l'estensione del browser Microsoft Purview Prerequisito per i siti di intelligenza artificiale di terze parti.
    Eseguire l'onboarding dei dispositivi in Microsoft Purview Un prerequisito anche per i siti di intelligenza artificiale di terze parti.
    Estendere le informazioni dettagliate per l'individuazione dei dati Criteri con un clic per raccogliere informazioni sugli utenti che visitano siti di IA generativi di terze parti e inviano loro informazioni sensibili. L'opzione è la stessa del pulsante Estendi informazioni dettagliate nella sezione Analisi dei dati di intelligenza artificiale più avanti nella pagina.

    Per altre informazioni sui prerequisiti, vedere Prerequisiti per l'hub di intelligenza artificiale.

    Per altre informazioni sui criteri preconfigurati che è possibile attivare, vedere Criteri con un clic dall'hub di intelligenza artificiale.

  3. Esaminare quindi la sezione Raccomandazioni e decidere se implementare eventuali opzioni rilevanti per il tenant. Queste opzioni includono la creazione di alcuni criteri predefiniti per proteggere i dati sensibili inviati a siti di IA generativi di terze parti e proteggere i dati con etichette di riservatezza. Esempi di raccomandazioni includono:

    È possibile usare il collegamento Visualizza tutte le raccomandazioni o Raccomandazioni del riquadro di spostamento per visualizzare tutte le raccomandazioni disponibili per il tenant e il relativo stato. Quando una raccomandazione viene completata o ignorata, non viene più visualizzata nella pagina Panoramica .

  4. Utilizzare la sezione Report o la pagina Report del riquadro di spostamento per visualizzare i risultati dei criteri. È necessario attendere almeno un giorno per il popolamento dei report.

  5. Usare la pagina Criteri dall'hub di intelligenza artificiale per monitorare lo stato dei criteri creati. Per modificarli, usare la soluzione di gestione corrispondente nel portale. Ad esempio, per Controllare il comportamento non etico nell'intelligenza artificiale, è possibile esaminare e correggere le corrispondenze dalla soluzione Conformità delle comunicazioni.

  6. Selezionare Esplora attività dall'hub di intelligenza artificiale per visualizzare i dettagli dei dati raccolti dai criteri.

    Queste informazioni più dettagliate includono attività, carico di lavoro e app, utente, data e ora ed eventuali tipi di informazioni sensibili rilevati.

    Esempi di attività includono l'interazione con l'intelligenza artificiale, la classificazione contrassegnata, la corrispondenza delle regole DLP e la visita all'intelligenza artificiale. Le richieste e le risposte copilot sono incluse negli eventi di interazione con intelligenza artificiale quando si hanno le giuste permisisons. Per altre informazioni sugli eventi, vedere Eventi di Esplora attività.

    Esempi di carichi di lavoro includono Microsoft Copilot e Altre app per intelligenza artificiale.

    Screenshot di esempio di Microsoft Purview Hub IA, Activity Explorer che mostra le attività di intelligenza artificiale.

Per Microsoft 365 Copilot e Microsoft Copilot, usare questi criteri e informazioni dettagliate in combinazione con altre protezioni e funzionalità di conformità di Microsoft Purview.

Microsoft Purview rafforza la protezione delle informazioni per Copilot

Microsoft 365 Copilot usa i controlli esistenti per garantire che i dati archiviati nel tenant non vengano mai restituiti all'utente o usati da un modello LLM (Large Language Model) se l'utente non ha accesso a tali dati. Quando i dati hanno etichette di riservatezza dell'organizzazione applicate al contenuto, esiste un ulteriore livello di protezione:

  • Quando un file è aperto in Word, Excel, PowerPoint o in modo analogo un evento di posta elettronica o calendario è aperto in Outlook, la riservatezza dei dati viene visualizzata per gli utenti dell'app con il nome dell'etichetta e i contrassegni di contenuto (ad esempio intestazione o testo del piè di pagina) configurati per l'etichetta. Loop componenti e pagine supportano anche le stesse etichette di riservatezza.

  • Quando l'etichetta di riservatezza applica la crittografia, gli utenti devono avere il diritto di utilizzo EXTRACT, nonché VIEW, affinché Copilot restituisca i dati.

  • Questa protezione si estende ai dati archiviati all'esterno del tenant di Microsoft 365 quando è aperta in un'app di Office (dati in uso). Ad esempio, archiviazione locale, condivisioni di rete e archiviazione cloud.

Consiglio

Se non è già stato fatto, è consigliabile abilitare le etichette di riservatezza per SharePoint e OneDrive e acquisire familiarità con i tipi di file e le configurazioni delle etichette che questi servizi possono elaborare. Quando le etichette di riservatezza non sono abilitate per questi servizi, i file crittografati a cui Microsoft 365 Copilot possono accedere sono limitati ai dati in uso dalle app di Office in Windows.

Per istruzioni, vedere Abilitare le etichette di riservatezza per i file di Office in SharePoint e OneDrive.

Inoltre, quando si usano Business Chat (in precedenza chat e Microsoft 365 Chat basate su graph) che possono accedere ai dati da un'ampia gamma di contenuti, la riservatezza dei dati etichettati restituiti da Microsoft 365 Copilot viene resa visibile agli utenti con l'etichetta di riservatezza visualizzata per le citazioni e gli elementi elencati nella risposta. Usando il numero di priorità delle etichette di riservatezza definito nel portale di Microsoft Purview o nel Portale di conformità di Microsoft Purview, la risposta più recente in Copilot visualizza l'etichetta di riservatezza con priorità più alta dai dati usati per la chat copilot.

Anche se gli amministratori della conformità definiscono la priorità di un'etichetta di riservatezza, un numero di priorità più alto indica in genere una maggiore riservatezza del contenuto, con autorizzazioni più restrittive. Di conseguenza, le risposte copilot vengono etichettate con l'etichetta di riservatezza più restrittiva.

Nota

Se gli elementi vengono crittografati da Microsoft Purview Information Protection ma non hanno un'etichetta di riservatezza, Microsoft 365 Copilot non restituirà questi elementi agli utenti se la crittografia non include i diritti di utilizzo EXTRACT o VIEW per l'utente.

Se non si usano già etichette di riservatezza, vedere Introduzione alle etichette di riservatezza.

Anche se i criteri DLP non supportano la classificazione dei dati per le interazioni Microsoft 365 Copilot, i tipi di informazioni sensibili e i classificatori sottoponibili a training sono supportati con i criteri di conformità delle comunicazioni per identificare i dati sensibili nelle richieste degli utenti a Copilot e nelle risposte.

Protezione copilot con ereditarietà dell'etichetta di riservatezza

Quando si usa Microsoft 365 Copilot per creare nuovo contenuto in base a un elemento a cui è applicata un'etichetta di riservatezza, l'etichetta di riservatezza del file di origine viene ereditata automaticamente, con le impostazioni di protezione dell'etichetta.

Ad esempio, un utente seleziona Bozza con Copilot in Word e quindi Fare riferimento a un file. In alternativa, un utente seleziona Crea presentazione da un file in PowerPoint o Modifica in pagine da Business Chat. Il contenuto di origine ha l'etichetta di riservatezza Confidential\Anyone (senza restrizioni) applicata e tale etichetta è configurata per applicare un piè di pagina che visualizza "Riservato". Il nuovo contenuto viene automaticamente etichettato Riservato\Chiunque (senza restrizioni) con lo stesso piè di pagina.

Per visualizzare un esempio di questo problema in azione, watch la demo seguente della sessione di Ignite 2023"Getting your enterprise ready for Microsoft 365 Copilot". La demo mostra come l'etichetta di riservatezza predefinita General viene sostituita con un'etichetta Confidential quando un utente esegue la bozza con Copilot e fa riferimento a un file etichettato. La barra delle informazioni nella barra multifunzione informa l'utente che il contenuto creato da Copilot ha comportato l'applicazione automatica della nuova etichetta:

Se vengono usati più file per creare nuovo contenuto, l'etichetta di riservatezza con la priorità più alta viene usata per l'ereditarietà delle etichette.

Come per tutti gli scenari di etichettatura automatica, l'utente può sempre eseguire l'override e sostituire un'etichetta ereditata (o rimuovere, se non si usa l'etichettatura obbligatoria).

Protezione di Microsoft Purview senza etichette di riservatezza

Anche se non viene applicata un'etichetta di riservatezza al contenuto, i servizi e i prodotti potrebbero usare le funzionalità di crittografia del servizio Azure Rights Management. Di conseguenza, Microsoft 365 Copilot può comunque verificare i diritti di utilizzo VIEW ed EXTRACT prima di restituire dati e collegamenti a un utente, ma non esiste un'ereditarietà automatica della protezione per i nuovi elementi.

Consiglio

Si otterrà la migliore esperienza utente quando si usano sempre etichette di riservatezza per proteggere i dati e la crittografia viene applicata da un'etichetta.

Esempi di prodotti e servizi che possono usare le funzionalità di crittografia del servizio Azure Rights Management senza etichette di riservatezza:

  • Crittografia dei messaggi di Microsoft Purview
  • Microsoft Information Rights Management (IRM)
  • Connettore Microsoft Rights Management
  • Microsoft Rights Management SDK

Per altri metodi di crittografia che non usano il servizio Azure Rights Management:

  • I messaggi di posta elettronica protetti da S/MIME non verranno restituiti da Copilot e Copilot non è disponibile in Outlook quando è aperto un messaggio di posta elettronica protetto S/MIME.

  • I documenti protetti da password non possono essere accessibili da Microsoft 365 Copilot a meno che non siano già aperti dall'utente nella stessa app (dati in uso). Le password non vengono ereditate da un elemento di destinazione.

Come per altri servizi di Microsoft 365, ad esempio eDiscovery e ricerca, gli elementi crittografati con Microsoft Purview Customer Key o la propria chiave radice (BYOK) sono supportati e idonei per essere restituiti da Microsoft 365 Copilot.

Microsoft Purview supporta la gestione della conformità per Copilot

Usare le funzionalità di conformità di Microsoft Purview con la protezione dei dati aziendali per supportare i requisiti di rischio e conformità per Microsoft 365 Copilot e Microsoft Copilot.

Le interazioni con Copilot possono essere monitorate per ogni utente nel tenant. Di conseguenza, è possibile usare la classificazione di Purview (tipi di informazioni sensibili e classificatori sottoponibili a training), la ricerca del contenuto, la conformità alle comunicazioni, il controllo, eDiscovery e le funzionalità di conservazione ed eliminazione automatiche usando i criteri di conservazione.

Per la conformità delle comunicazioni, è possibile analizzare le richieste degli utenti e le risposte copilot per rilevare interazioni inappropriate o rischiose o condividere informazioni riservate. Per altre informazioni, vedere Configurare criteri di conformità delle comunicazioni da rilevare per le interazioni copilot.

communication-compliance-microsoft-365-copilot.

Per il controllo, i dettagli vengono acquisiti nel log di controllo unificato quando gli utenti interagiscono con Copilot. Gli eventi includono come e quando gli utenti interagiscono con Copilot, in cui si è svolta l'attività del servizio Microsoft 365, e riferimenti ai file archiviati in Microsoft 365 a cui è stato eseguito l'accesso durante l'interazione. Se questi file hanno un'etichetta di riservatezza applicata, anche questa viene acquisita. Nella soluzione Audit del portale di Microsoft Purview o del Portale di conformità di Microsoft Purview selezionare Attività Copilot e Interagire con Copilot. È anche possibile selezionare Copilot come carico di lavoro. Ad esempio, dal portale di conformità:

Opzioni di controllo per identificare le interazioni degli utenti con Copilot.

Per la ricerca di contenuto, poiché le richieste dell'utente a Copilot e le risposte da Copilot vengono archiviate nella cassetta postale di un utente, possono essere ricercate e recuperate quando la cassetta postale dell'utente è selezionata come origine per una query di ricerca. Selezionare e recuperare questi dati dalla cassetta postale di origine selezionando dal generatore di query Aggiungitipo di>condizione>Uguale a una qualsiasi delle>opzioni Aggiungi/Rimuovi altre interazioni>copilot.

Analogamente per eDiscovery, si usa lo stesso processo di query per selezionare le cassette postali e recuperare le richieste degli utenti a Copilot e le risposte da Copilot. Dopo la creazione della raccolta e l'origine della fase di revisione in eDiscovery (Premium), questi dati sono disponibili per l'esecuzione di tutte le azioni di revisione esistenti. Queste raccolte e questi set di revisione possono quindi essere ulteriormente sospesi o esportati. Se è necessario eliminare questi dati, vedere Cercare ed eliminare i dati per Copilot.

Per i criteri di conservazione che supportano la conservazione e l'eliminazione automatica, le richieste degli utenti a Copilot e le risposte di Copilot sono identificate dalle chat di Teams e dalle interazioni copilot. In precedenza denominate solo chat di Teams, gli utenti non devono usare la chat di Teams per applicare questi criteri. Tutti i criteri di conservazione esistenti configurati in precedenza per le chat di Teams ora includono automaticamente richieste e risposte degli utenti da e verso Microsoft 365 Copilot e Microsoft Copilot:

Aggiornamento del percorso di conservazione delle chat di Teams per includere le interazioni per Copilot.

Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Informazioni sulla conservazione per Copilot.

Come per tutti i criteri e i blocchi di conservazione, se più criteri per la stessa posizione si applicano a un utente, i principi di conservazione resolvono eventuali conflitti. Ad esempio, i dati vengono conservati per la durata più lunga di tutti i criteri di conservazione applicati o dei blocchi di eDiscovery.

Per consentire alle etichette di conservazione di conservare automaticamente i file a cui si fa riferimento in Copilot, selezionare l'opzione per gli allegati cloud con un criterio di etichetta di conservazione automatica: Applicare l'etichetta agli allegati cloud e ai collegamenti condivisi in Exchange, Teams, Viva Engage e Copilot. Come per tutti gli allegati cloud conservati, la versione del file al momento in cui viene fatto riferimento viene mantenuta.

Opzione aggiornata per gli allegati cloud per l'applicazione automatica dell'etichetta di conservazione per includere le interazioni per Copilot.

Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Funzionamento della conservazione con gli allegati cloud.

Per istruzioni di configurazione:

Altra documentazione per l'hub di intelligenza artificiale e Copilot

Annuncio del post di blog: Proteggere i dati per sfruttare in tutta sicurezza l'intelligenza artificiale generativa con Microsoft Purview

Per informazioni più dettagliate, vedere Considerazioni su Microsoft Purview Hub IA e le protezioni per la sicurezza e la conformità dei dati per Copilot.

Microsoft 365 Copilot: