Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità
Nota
Questa documentazione è relativa alla versione di anteprima di Gestione della postura di sicurezza dei dati in fase di implementazione. Ti invitiamo a provare questa anteprima che introduce flussi di lavoro guidati per la gestione proattiva dei rischi e semplifica le operazioni di sicurezza dei dati in modo da poter adottare con maggiore sicurezza l'IA nel digital estate.
La maggior parte delle nuove funzionalità verrà aggiunta solo a questa versione, ma è comunque possibile accedere alle versioni precedenti e alla relativa documentazione:
Per la maggior parte, Gestione della postura di sicurezza dei dati di Microsoft Purview è facile da usare e autoesplicare, guidando l'utente attraverso le attività di configurazione e configurazione per proteggere e gestire i dati. Usare questa sezione per integrare tali informazioni e fornire altri dettagli che potrebbero essere necessari.
Prerequisiti per Gestione della postura di sicurezza dei dati
Usare questa sezione per identificare i prerequisiti non inclusi nelle attività di installazione.
Si dispone di una licenza di supporto per questa soluzione Microsoft Purview. Per altre informazioni, vedere il post di blog sull'annuncio Beyond Visibility: The new Gestione della postura di sicurezza dei dati di Microsoft Purview (DSPM) experience (Oltre la visibilità: la nuova esperienza Gestione della postura di sicurezza dei dati di Microsoft Purview (DSPM).
Si dispone delle autorizzazioni appropriate.
Per Microsoft 365 Copilot e agenti, agli utenti viene assegnata una licenza per Microsoft 365 Copilot.
- Per Copilot in Fabric e Security Copilot:
- Versione enterprise della governance dei dati di Microsoft Purview, per supportare le API necessarie.
- Criteri di raccolta, ad esempio quello creato dall'attività di configurazione Proteggere le interazioni nelle esperienze Microsoft Copilot.
- Per Copilot in Fabric e Security Copilot:
Per il monitoraggio delle interazioni e l'applicazione di criteri DLP ad altre app per intelligenza artificiale in Edge:
- Per attivare l'integrazione di Microsoft Purview in Edge è necessario un criterio di configurazione Edge. Per informazioni sulla configurazione, vedere Attivare i criteri DLP in Microsoft Edge.
Per le valutazioni dei rischi dei dati di Fabric, condivise con DSPM per l'intelligenza artificiale (versione classica): configurazione sia in Entra che nel portale di amministrazione di Fabric.
Per le valutazioni dei rischi dei dati personalizzate di Microsoft 365 e l'analisi a livello di elemento, condivise con DSPM per l'intelligenza artificiale (versione classica): configurazione nel portale di amministrazione di Entra.
Per le app di intelligenza artificiale registrate da Entra, sono integrate con il Microsoft Purview SDK per supportare tutte le funzionalità di Microsoft Purview.
Per Security Copilot promptbook e agenti che supportano l'individuazione e la correzione dei dati per i dati sensibili, abilitare Security Copilot per il controllo Purview e le soluzioni di DSPM.
Eventi di Esplora attività in Gestione della postura di sicurezza dei dati
Usare le informazioni seguenti per comprendere gli eventi che potrebbero essere visualizzati in Esplora attività da Gestione della postura di sicurezza dei dati e nella scheda Attività di intelligenza artificiale. I riferimenti a un sito di intelligenza artificiale generativa possono includere Microsoft 365 Copilot. Microsoft 365 Copilot Chat, agenti, altri copilot Microsoft e siti di intelligenza artificiale di terze parti.
| Evento | Descrizione |
|---|---|
| Interazione con l'intelligenza artificiale | L'utente ha interagito con un sito di intelligenza artificiale generativa. I dettagli includono le richieste e le risposte, ad eccezione delle app di intelligenza artificiale non gestite in Edge in cui sono incluse solo le richieste di testo. Per Microsoft 365 Copilot e Microsoft 365 Copilot Chat, questo evento richiede l'attivazione del controllo. Per Copilot in Fabric e Security Copilot e per le app per intelligenza artificiale non Copilot, le richieste e le risposte richiedono un criterio di raccolta con l'acquisizione del contenuto selezionata per acquisire queste interazioni. |
| Visita al sito Web di intelligenza artificiale | L'utente è stato visualizzato in un sito di intelligenza artificiale generativa. |
| Corrispondenza della regola DLP | Una regola di prevenzione della perdita dei dati è stata abbinata quando un utente ha interagito con un sito di intelligenza artificiale generativa. Include DLP per Microsoft 365 Copilot. |
| Tipi di informazioni sensibili | I tipi di informazioni sensibili sono stati trovati mentre un utente interagisce con un sito di intelligenza artificiale generativa. Per Microsoft 365 Copilot e Microsoft 365 Copilot Chat, questo evento richiede l'attivazione del controllo, ma non richiede criteri attivi. |
L'evento di interazione con intelligenza artificiale non visualizza sempre testo per la richiesta e la risposta. In alcuni casi, la richiesta e la risposta si estendono su voci consecutive. Altri scenari possono includere:
- Note generate da Microsoft Facilitator generate dall'intelligenza artificiale, nessuna richiesta o risposta viene visualizzata
- Quando un utente non dispone di una cassetta postale ospitata in Exchange Online, non viene visualizzata alcuna richiesta o risposta
L'evento Tipi di informazioni sensibili rilevati non visualizza il livello di rischio utente.
Per le note generate dall'intelligenza artificiale di Microsoft Facilitator, gli eventi di interazione con intelligenza artificiale non possono essere collegati a eventi rilevati di tipi di informazioni sensibili .
Per i criteri di raccolta, non viene visualizzata alcuna richiesta o risposta se l'opzione di acquisizione del contenuto non è selezionata nei criteri. Ad esempio, il criterio con un clic DSPM per intelligenza artificiale - Rilevare le informazioni sensibili condivise con intelligenza artificiale tramite rete non seleziona questa opzione quando il criterio viene creato automaticamente, ma è possibile modificare manualmente il criterio e selezionare questa opzione dopo la creazione del criterio.
Suggerimenti per richieste di Security Copilot personalizzate in Gestione della postura di sicurezza dei dati
Per un'esperienza migliorata con Security Copilot in Gestione della postura di sicurezza dei dati, usare i suggerimenti seguenti per ottenere una maggiore precisione per le risposte copilot:
- Includere sempre l'UPN dell'utente per le domande che coinvolgono un utente specifico.
- Specificare sempre il nome completo per il tipo di informazioni sensibili o l'etichetta per le domande che coinvolgono un tipo specifico di tipo di informazioni sensibili o etichetta.
- Elencare chiaramente i criteri di ordinamento per le domande relative a utenti, attività e avvisi principali.
- Specificare sempre il periodo di data per le domande relative ai dati in un periodo di data specifico. Se non si specifica un periodo di data, vengono inclusi solo i dati degli ultimi 10 giorni dalla data corrente. Il lookback massimo è di 30 giorni dalla data corrente.
- Inserire tutti gli elementi (classificatori o etichette) tra virgolette singole nel prompt.
- Usare "/" come separatore per qualsiasi percorso (ad esempio, un percorso di file) in un prompt dell'utente.
- Definire l'ambito della richiesta a una singola finalità per una maggiore precisione delle risposte. Suddividere i prompt complessi in domande a finalità singola e immettere i prompt uno per uno.
- Fai domande autonome. Evitare di fare riferimento a domande o risposte precedenti.
- Evitare di usare termini generici.
- Richieste di supporto per la sicurezza dei dati in Information Protection, DLP, Gestione dei rischi Insider o dalla documentazione pubblica.
Per altre informazioni sulla creazione di richieste di Security Copilot, vedere Creare prompt efficaci.