Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità
Per la maggior parte, Gestione della postura di sicurezza dei dati per l'intelligenza artificiale è facile da usare e autoesplicatore, guidando l'utente attraverso i prerequisiti e i report e i criteri preconfigurati. Usare questa sezione per integrare tali informazioni e fornire altri dettagli che potrebbero essere necessari.
Prerequisiti per Gestione della postura di sicurezza dei dati per l'intelligenza artificiale
Per usare Gestione della postura di sicurezza dei dati per l'intelligenza artificiale dal portale di Microsoft Purview, è necessario disporre dei prerequisiti seguenti:
Si dispone delle autorizzazioni appropriate.
Obbligatorio per il monitoraggio delle interazioni con Copilot e agenti:
Il controllo di Microsoft Purview è abilitato per l'organizzazione. Anche se si tratta dell'impostazione predefinita, è possibile controllare le istruzioni per Attivare o disattivare il controllo.
Per Microsoft 365 Copilot e agenti, agli utenti viene assegnata una licenza per Microsoft 365 Copilot.
Per Copilot in Fabric e Security Copilot:
- Versione enterprise della governance dei dati di Microsoft Purview, per supportare le API necessarie.
- Criteri di raccolta, ad esempio quelli creati dalla raccomandazione Proteggere le interazioni per Microsoft Copilot esperienze.
Obbligatorio per il monitoraggio delle interazioni e l'applicazione di criteri DLP ad altre app per intelligenza artificiale in Edge:
- Per attivare l'integrazione di Microsoft Purview in Edge è necessario un criterio di configurazione Edge. Per informazioni sulla configurazione, vedere Attivare i criteri DLP in Microsoft Edge.
Obbligatorio per il monitoraggio delle interazioni con siti di IA generativi di terze parti:
I dispositivi vengono caricati in Microsoft Purview, necessari per:
- Ottenere visibilità sulle informazioni sensibili condivise con siti di intelligenza artificiale generativa di terze parti. Ad esempio, un utente incolla i numeri di carta di credito in ChatGPT.
- Applicazione di criteri di prevenzione della perdita dei dati degli endpoint per avvisare o impedire agli utenti di condividere informazioni riservate con siti di intelligenza artificiale generativi di terze parti. Ad esempio, un utente identificato come rischio elevato in Protezione adattiva è bloccato con l'opzione di sostituzione quando incolla i numeri di carta di credito in ChatGPT.
L'estensione del browser Microsoft Purview viene distribuita agli utenti di Windows e deve individuare le visite a siti di intelligenza artificiale generativa di terze parti usando criteri di gestione dei rischi Insider. L'estensione del browser è necessaria anche per i criteri di prevenzione della perdita dei dati degli endpoint in Windows quando si usa Chrome.
Per le app di intelligenza artificiale diverse da Microsoft 365 Copilot e Microsoft Facilitator, è stata configurata la fatturazione con pagamento in base al consumo per l'organizzazione. Quando questo modello di fatturazione è applicabile per configurazioni specifiche, verranno visualizzate le notifiche e le istruzioni nell'interfaccia utente.
Sono disponibili altre informazioni sui prerequisiti per il controllo, l'onboarding dei dispositivi e l'estensione del browser in Gestione della postura di sicurezza dei dati per l'intelligenza artificiale: Passare alla sezione Panoramica>Introduzione.
Per un elenco delle app di intelligenza artificiale di terze parti attualmente supportate, vedere Siti di intelligenza artificiale supportati da Microsoft Purview per le protezioni di sicurezza e conformità dei dati.
Nota
Se si usano unità amministrative, gli amministratori con restrizioni non saranno in grado di creare i criteri con un clic che si applicano a tutti gli utenti. Per creare questi criteri, è necessario essere un amministratore senza restrizioni. Gli amministratori con restrizioni visualizzano i risultati solo per gli utenti nell'unità amministrativa assegnata per la pagina Criteri e nei report e in Esplora attività in Gestione della postura di sicurezza dei dati di Microsoft Purview per l'intelligenza artificiale.
Criteri con un clic da Gestione della postura di sicurezza dei dati per l'intelligenza artificiale
Dopo aver creato i criteri predefiniti, è possibile visualizzarli e modificarli in qualsiasi momento dalle rispettive aree della soluzione nel portale. Ad esempio, si vuole definire l'ambito dei criteri per utenti specifici durante il test o per i requisiti aziendali. In alternativa, si vogliono aggiungere o rimuovere classificatori usati per rilevare informazioni riservate. Usare la pagina Criteri per passare rapidamente alla posizione corretta nel portale.
Alcuni criteri, ad esempio DSPM per intelligenza artificiale - Acquisire interazioni per le esperienze Copilot e DSPM per l'intelligenza artificiale- Rilevare le informazioni sensibili condivise con l'intelligenza artificiale tramite rete sono criteri di raccolta che è possibile modificare e, se necessario, eliminare come qualsiasi altro criterio di raccolta. Per altre informazioni, vedere Accesso ai criteri di raccolta.
Se si elimina uno dei criteri, il relativo stato nella pagina Criteri visualizza PendingDeletion e continua a essere visualizzato come creato nelle rispettive schede di raccomandazione fino al completamento del processo di eliminazione.
Per le etichette di riservatezza e i relativi criteri, visualizzarli e modificarli in modo indipendente da Gestione della postura di sicurezza dei dati per l'intelligenza artificiale, passando a Information Protection nel portale. Per altre informazioni, usare i collegamenti di configurazione in Etichette e criteri predefiniti per proteggere i dati.
Per altre informazioni sulle azioni DLP supportate e sulle piattaforme che le supportano, vedere le prime due righe della tabella dalle attività endpoint su cui è possibile monitorare ed eseguire azioni.
Per i criteri predefiniti che usano Protezione adattiva, questa funzionalità è attivata se non è già attiva, usando i livelli di rischio predefiniti per tutti gli utenti e i gruppi per applicare dinamicamente le azioni di protezione. Per altre informazioni, vedere Configurazione rapida
Nota
Tutti i criteri predefiniti creati durante Gestione della postura di sicurezza dei dati per l'intelligenza artificiale erano in anteprima e denominati Microsoft Purview Hub IA non verranno modificati. Ad esempio, i nomi dei criteri mantengono il prefisso Microsoft Hub IA - .
Criteri predefiniti per l'individuazione dei dati tramite Gestione della postura di sicurezza dei dati per l'intelligenza artificiale
Criteri di prevenzione della perdita dei dati: DSPM per l'intelligenza artificiale: rilevare le informazioni sensibili aggiunte ai siti di intelligenza artificiale
Origine: estendere le informazioni dettagliate per l'individuazione dei dati
Questo criterio individua i contenuti sensibili incollati o caricati in Microsoft Edge, Chrome e Firefox nei siti di intelligenza artificiale. Questo criterio copre tutti gli utenti e i gruppi dell'organizzazione solo in modalità di controllo.
Criteri di gestione dei rischi Insider: DSPM per l'intelligenza artificiale - Rilevare quando gli utenti visitano i siti di intelligenza artificiale
Origine: estendere le informazioni dettagliate per l'individuazione dei dati
Questo criterio rileva quando gli utenti usano un browser per visitare i siti di intelligenza artificiale.
Criteri di gestione dei rischi Insider: DSPM per l'intelligenza artificiale - Rilevare l'utilizzo rischioso dell'IA
Origine: Raccomandazione Rilevare interazioni rischiose nelle app per intelligenza artificiale
Questo criterio consente di calcolare il rischio dell'utente rilevando richieste e risposte rischiose in Microsoft 365 Copilot, agenti e altre app di intelligenza artificiale generative.
Conformità delle comunicazioni: DSPM per l'intelligenza artificiale - Comportamento non etico nelle app per intelligenza artificiale
Origine: Raccomandazione Rilevare il comportamento non etico nelle app per intelligenza artificiale
Questo criterio rileva le informazioni sensibili nelle richieste e nelle risposte in Microsoft 365 Copilot, agenti e altre app di intelligenza artificiale generative. Questo criterio riguarda tutti gli utenti e i gruppi dell'organizzazione.
Criteri di raccolta: DSPM per l'intelligenza artificiale - Acquisire interazioni per le esperienze Copilot
Origine: Raccomandazioni Interazioni sicure nelle esperienze Microsoft Copilot
Questo criterio acquisisce richieste e risposte per il comportamento di sicurezza dei dati e la conformità alle normative da Copilot in Fabric e Security Copilot. Gestirle in soluzioni Microsoft Purview come eDiscovery, Gestione del ciclo di vita dei dati e altro ancora.
Criteri di raccolta: DSPM per l'intelligenza artificiale - Rilevare le informazioni sensibili condivise con l'intelligenza artificiale tramite rete
Origine: Raccomandazione Estendere le informazioni dettagliate ai dati sensibili nelle interazioni con le app per intelligenza artificiale
Questo criterio rileva le informazioni sensibili condivise con le app di intelligenza artificiale in browser, applicazioni, API, componenti aggiuntivi e altro ancora, usando un'integrazione SASE (Secure Access Service Edge) o Security Service Edge (SSE).
Importante
Per questo criterio è necessario aggiungere manualmente una o più integrazioni SASE (Secure Access Service Edge) o Security Service Edge (SSE) nelle impostazioni di prevenzione della perdita dei dati. Il rilevamento delle interazioni di IA dipende dall'implementazione del partner di rete.
Se si desidera acquisire richieste e risposte oltre a rilevare informazioni riservate, è necessario modificare i criteri di raccolta e selezionare l'opzione per acquisire il contenuto.
Criteri di raccolta: DSPM per l'intelligenza artificiale - Acquisire interazioni per le app di intelligenza artificiale aziendali
Origine: Raccomandazione Interazioni sicure dalle app aziendali
Questo criterio acquisisce richieste e risposte per la conformità alle normative dalle app aziendali per intelligenza artificiale, ad esempio app Chat GPT Enterprise e IA connesse tramite Microsoft Entra o servizi di intelligenza artificiale di Azure, in modo che possano essere gestite in soluzioni Microsoft Purview come eDiscovery, Gestione del ciclo di vita dei dati e altro ancora.
Criteri di raccolta: DSPM per l'intelligenza artificiale - Rilevare le informazioni sensibili condivise nelle richieste di intelligenza artificiale in Edge
Origine: estendere le informazioni dettagliate per l'individuazione dei dati
Questo criterio rileva le richieste inviate alle app generative di intelligenza artificiale in Microsoft Edge e individua le informazioni sensibili condivise nel contenuto della richiesta. Questo criterio copre tutti gli utenti e i gruppi dell'organizzazione solo in modalità di controllo.
Criteri predefiniti della sicurezza dei dati per proteggere i dati sensibili usati nell'intelligenza artificiale generativa
Criteri DLP DSPM per l'intelligenza artificiale - Bloccare le informazioni sensibili dai siti di intelligenza artificiale
Origine: raccomandazione fortifica la sicurezza dei dati
Questo criterio usa Protezione adattiva per fornire un blocco con override agli utenti a rischio elevato che tentano di incollare o caricare informazioni sensibili in altre app per intelligenza artificiale in Edge, Chrome e Firefox. Questo criterio copre tutti gli utenti e i gruppi dell'organizzazione in modalità test.
Criteri DLP DSPM per l'intelligenza artificiale - Impedire agli utenti a rischio elevato di inviare richieste alle app per intelligenza artificiale in Microsoft Edge
Origine: raccomandazione fortifica la sicurezza dei dati
Questo criterio usa Protezione adattiva per bloccare gli utenti con rischi elevati, moderati e minori che tentano di inserire informazioni nelle app per intelligenza artificiale durante l'uso di Microsoft Edge.
Criteri DLP DSPM per l'intelligenza artificiale - Bloccare le informazioni sensibili dalle app per intelligenza artificiale in Edge
Origine: raccomandazione fortifica la sicurezza dei dati
Questo criterio rileva inline per una selezione di tipi di informazioni sensibili comuni e blocca l'invio di richieste alle app di intelligenza artificiale durante l'uso di Microsoft Edge.
Criteri DLP DSPM per l'intelligenza artificiale - Proteggere i dati sensibili dall'elaborazione di Copilot
Origine: Raccomandazione Proteggere gli elementi con etichette di riservatezza dall'elaborazione di Microsoft 365 Copilot e agenti
Questo criterio impedisce a Microsoft 365 Copilot e agli agenti di elaborare gli elementi con le etichette di riservatezza selezionate in questo criterio.
Information Protection - Etichette e criteri di riservatezza
Origine: Raccomandazione Proteggere i dati con etichette di sensibilità
Questa raccomandazione crea etichette di riservatezza predefinite e criteri di etichetta di riservatezza. Se sono già state configurate le etichette di riservatezza e i relativi criteri, questa configurazione viene ignorata.
Eventi di Esplora attività
Usare le informazioni seguenti per comprendere gli eventi che potrebbero essere visualizzati in Esplora attività da Gestione della postura di sicurezza dei dati per l'intelligenza artificiale. I riferimenti a un sito di intelligenza artificiale generativa possono includere Microsoft 365 Copilot, Microsoft 365 Copilot Chat, agenti, altri copiloti Microsoft e siti di intelligenza artificiale di terze parti.
Evento | Descrizione |
---|---|
Interazione con l'intelligenza artificiale | L'utente ha interagito con un sito di intelligenza artificiale generativa. I dettagli includono le richieste e le risposte. Per Microsoft 365 Copilot e Microsoft 365 Copilot Chat, questo evento richiede l'attivazione del controllo. Per Copilot in Fabric e Security Copilot e per le app per intelligenza artificiale non Copilot, le richieste e le risposte richiedono un criterio di raccolta con l'acquisizione del contenuto selezionata per acquisire queste interazioni. |
Visita al sito Web di intelligenza artificiale | L'utente è stato visualizzato in un sito di intelligenza artificiale generativa. |
Corrispondenza della regola DLP | Una regola di prevenzione della perdita dei dati è stata abbinata quando un utente ha interagito con un sito di intelligenza artificiale generativa. Include DLP per Microsoft 365 Copilot. |
Tipi di informazioni sensibili | I tipi di informazioni sensibili sono stati trovati mentre un utente interagisce con un sito di intelligenza artificiale generativa. Per Microsoft 365 Copilot e Microsoft 365 Copilot Chat, questo evento richiede l'attivazione del controllo, ma non richiede criteri attivi. |
L'evento di interazione con intelligenza artificiale non visualizza sempre testo per la richiesta di Copilot e la risposta. In alcuni casi, la richiesta e la risposta si estendono su voci consecutive. Altri scenari possono includere:
- Note generate da Microsoft Facilitator generate dall'intelligenza artificiale, nessuna richiesta o risposta viene visualizzata
- Quando un utente non dispone di una cassetta postale ospitata in Exchange Online, non viene visualizzata alcuna richiesta o risposta
L'evento Tipi di informazioni sensibili rilevati non visualizza il livello di rischio utente.
Per le note generate dall'intelligenza artificiale di Microsoft Facilitator, gli eventi di interazione con intelligenza artificiale non possono essere collegati a eventi rilevati di tipi di informazioni sensibili .
Per i criteri di raccolta, non viene visualizzata alcuna richiesta o risposta se l'opzione di acquisizione del contenuto non è selezionata nei criteri. Ad esempio, il criterio con un clic DSPM per intelligenza artificiale - Rilevare le informazioni sensibili condivise con intelligenza artificiale tramite rete non seleziona questa opzione quando il criterio viene creato automaticamente, ma è possibile modificare manualmente il criterio e selezionare questa opzione dopo la creazione del criterio.