Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità
Usare le sezioni seguenti per identificare le funzionalità di Microsoft Purview supportate per le interazioni con intelligenza artificiale che usano un browser per siti di intelligenza artificiale di terze parti e alcuni consigli introduttivi per gestire queste interazioni di intelligenza artificiale per la sicurezza e la conformità.
Per gestire queste interazioni di intelligenza artificiale con Microsoft Purview è necessario abilitare la fatturazione con pagamento in base al consumo nell'organizzazione.
Capacità supportate
Usare la tabella seguente per visualizzare a colpo d'occhio le funzionalità di Microsoft Purview supportate per i siti di intelligenza artificiale di terze parti, ad esempio ChatGPT, Google Gemini e DeepSeek.
Se non indicato per soluzioni specifiche, l'elenco dei siti di intelligenza artificiale supportati è lo stesso di quelli supportati per DSPM per l'intelligenza artificiale: elenco di siti di intelligenza artificiale supportati da Gestione della postura di sicurezza dei dati di Microsoft Purview per l'intelligenza artificiale.
Funzionalità o soluzione in Microsoft Purview | Supportato per le interazioni con intelligenza artificiale |
---|---|
DSPM per l'intelligenza artificiale | ✓ |
Controllo | ✓ |
Classificazione dei dati | ✓ |
Etichette di riservatezza | ✕ |
Crittografia senza etichette di riservatezza | ✕ |
Prevenzione della perdita di dati | ✓ |
Gestione dei rischi Insider | ✓ |
Conformità delle comunicazioni | ✓ |
eDiscovery | ✓ |
Gestione del ciclo di vita dei dati | ✓ |
Compliance Manager | ✓ |
La maggior parte delle funzionalità e delle soluzioni supportate richiede l'estensione del browser Microsoft Purview e i dispositivi caricati in Microsoft Purview. Le eccezioni sono, con i propri prerequisiti:
- Sicurezza dei dati di rete per rilevare i tipi di informazioni sensibili a livello di rete, usando un edge del servizio di accesso sicuro o un'integrazione Security Service Edge.
- Sicurezza dei dati del browser per rilevare i tipi di informazioni sensibili a livello di browser Edge, usando un'integrazione diretta da Purview nel browser Edge.
Gestione della postura di sicurezza dei dati per l'intelligenza artificiale
Usare Gestione della postura di sicurezza dei dati di Microsoft Purview (DSPM) per l'intelligenza artificiale come frontdoor per individuare, proteggere e applicare i controlli di conformità per l'utilizzo dell'IA in tutta l'azienda. Questa soluzione usa i controlli esistenti della protezione delle informazioni e della gestione della conformità di Microsoft Purview con strumenti grafici e report facili da usare per ottenere rapidamente informazioni dettagliate sull'uso dell'IA all'interno dell'organizzazione. Con raccomandazioni personalizzate, i criteri con un solo clic consentono di proteggere i dati e di rispettare i requisiti normativi.
Per altre informazioni, vedere Informazioni su Gestione della postura di sicurezza dei dati (DSPM) per l'intelligenza artificiale.
Informazioni specifiche dell'app per intelligenza artificiale:
La sezione Introduzione della pagina Panoramica contiene i passaggi e le informazioni necessari per installare l'estensione del browser Microsoft Purview e il processo di onboarding dei dispositivi.
Raccomandazione Ottenere assistenza guidata alle normative sull'intelligenza artificiale, che usa modelli normativi di mapping dei controlli di Compliance Manager.
Criteri disponibili con un clic :
- DSPM per l'intelligenza artificiale: rilevare le informazioni sensibili aggiunte ai siti di intelligenza artificiale dalla raccomandazione Estendere le informazioni dettagliate per l'individuazione dei dati
- DSPM per l'intelligenza artificiale - Rilevare quando gli utenti visitano i siti di intelligenza artificiale dalla raccomandazione Estendere le informazioni dettagliate per l'individuazione dei dati
- DSPM per l'intelligenza artificiale - Rilevare le informazioni sensibili condivise nelle richieste di intelligenza artificiale in Edge dalla raccomandazione Estendere le informazioni dettagliate per l'individuazione dei dati
- DSPM per l'intelligenza artificiale - Rilevare le informazioni sensibili condivise con l'intelligenza artificiale tramite rete dalla raccomandazione Estendere le informazioni dettagliate ai dati sensibili nelle interazioni con le app di intelligenza artificiale.
Controllo e interazioni con intelligenza artificiale
Microsoft Purview Audit soluzioni forniscono strumenti completi per la ricerca e la gestione dei record di controllo delle attività eseguite in vari servizi Microsoft da utenti e amministratori e consentono alle organizzazioni di rispondere in modo efficace agli eventi di sicurezza, alle indagini forensi, alle indagini interne e agli obblighi di conformità.
Come altre attività, le richieste e le risposte vengono acquisite nel log di controllo unificato. Gli eventi includono come e quando gli utenti interagiscono con l'app per intelligenza artificiale e possono includere il servizio Microsoft 365 in cui si è svolta l'attività e i riferimenti ai file archiviati in Microsoft 365 a cui è stato eseguito l'accesso durante l'interazione. Se questi file hanno un'etichetta di riservatezza applicata, anche questa viene acquisita.
Questi eventi vengono inseriti in Esplora attività in Gestione della postura di sicurezza dei dati per l'intelligenza artificiale, dove è possibile visualizzare i dati delle richieste e delle risposte. È anche possibile usare la soluzione Audit del portale di Microsoft Purview per cercare e trovare questi eventi di controllo.
Per altre informazioni, vedere Log di controllo per le attività copilot e di intelligenza artificiale.
Informazioni specifiche dell'app per intelligenza artificiale:
- Usare la sicurezza dei dati di rete per controllare le richieste e le risposte a livello di rete, usando un edge del servizio di accesso sicuro o un'integrazione Security Service Edge.
Classificazione dei dati e interazioni con intelligenza artificiale
La classificazione dei dati di Microsoft Purview offre un framework completo per identificare e contrassegnare i dati sensibili in vari servizi Microsoft, tra cui Office 365, Dynamics 365 e Azure. La classificazione dei dati è spesso il primo passaggio per garantire la conformità alle normative sulla protezione dei dati e la protezione da accessi, modifiche o distruzione non autorizzati. È possibile usare le classificazioni di sistema predefinite o crearne di personalizzate.
I tipi di informazioni sensibili e i classificatori sottoponibili a training possono essere usati per trovare dati sensibili nelle richieste e nelle risposte degli utenti quando usano app per intelligenza artificiale. Le informazioni risultanti vengono quindi visualizzate nel dashboard di classificazione dei dati e in Esplora attività in Gestione della postura di sicurezza dei dati per l'intelligenza artificiale.
Informazioni specifiche dell'app per intelligenza artificiale:
- Usare la sicurezza dei dati di rete per rilevare i tipi di informazioni sensibili a livello di rete, usando un edge del servizio di accesso sicuro o un'integrazione Security Service Edge.
- Usare la sicurezza dei dati del browser per rilevare i tipi di informazioni sensibili a livello di browser Edge, usando un'integrazione diretta da Purview nel browser Edge.
Prevenzione della perdita di dati e interazioni con intelligenza artificiale
Prevenzione della perdita dei dati Microsoft Purview (DLP) consente di identificare gli elementi sensibili tra i servizi e gli endpoint di Microsoft 365, di monitorarli e di proteggerli dalla perdita di tali elementi. Usa l'ispezione approfondita dei contenuti e l'analisi contestuale per identificare gli elementi sensibili e applica criteri per proteggere i dati sensibili, ad esempio record finanziari, informazioni sull'integrità o proprietà intellettuale.
I computer Windows di cui è stato eseguito l'onboarding in Microsoft Purview possono essere configurati per i criteri di prevenzione della perdita dei dati degli endpoint che avvisano o impediscono agli utenti di condividere informazioni sensibili con siti di intelligenza artificiale generativi di terze parti a cui si accede tramite un browser. Ad esempio, a un utente viene impedito di incollare i numeri di carta di credito in ChatGPT o viene visualizzato un avviso che può essere sostituito. Per altre informazioni sulle azioni DLP supportate e sulle piattaforme che le supportano, vedere le prime due righe della tabella dalle attività endpoint su cui è possibile monitorare ed eseguire azioni.
Inoltre, un criterio DLP con ambito per un percorso di intelligenza artificiale può limitare le app di intelligenza artificiale dall'elaborazione di contenuti sensibili. Ad esempio, un criterio DLP può limitare Microsoft 365 Copilot dal riepilogo dei file in base alle etichette di riservatezza, ad esempio "Altamente riservato". Dopo aver attivato questo criterio, Microsoft 365 Copilot e gli agenti non riepilogano i file etichettati come "Altamente riservato", ma possono farvi riferimento con un collegamento in modo che l'utente possa quindi aprire e visualizzare il contenuto usando Word. Per altre informazioni che includono quali app per intelligenza artificiale supportano questa configurazione DLP, vedere Informazioni sul percorso dei criteri di Microsoft 365 Copilot.
Informazioni specifiche dell'app per intelligenza artificiale:
- Endpoint DLP supporta un'opzione per bloccare il caricamento di file in base a un'etichetta di riservatezza specificata.
Insider Risk Management e interazioni con intelligenza artificiale
Gestione dei rischi Insider Microsoft Purview consente di rilevare, analizzare e attenuare i rischi interni, ad esempio furto ip, perdita di dati e violazioni della sicurezza. Sfrutta i modelli di Machine Learning e vari segnali di Microsoft 365 e indicatori di terze parti per identificare potenziali attività insider dannose o involontarie. La soluzione include controlli della privacy come lo pseudonimismo e l'accesso in base al ruolo, garantendo la privacy a livello di utente e consentendo agli analisti dei rischi di intraprendere le azioni appropriate.
Usare il modello di criteri di utilizzo dell'IA rischioso per rilevare l'utilizzo rischioso che include attacchi di inserimento rapido e l'accesso ai materiali protetti. Le informazioni dettagliate da questi segnali sono integrate in Microsoft Defender XDR per fornire una visione completa dei rischi correlati all'IA.
Informazioni specifiche dell'app per intelligenza artificiale:
- Per richieste e risposte, richiede un criterio di raccolta che includa l'impostazione per acquisire il contenuto. Per altre informazioni, vedere Panoramica della soluzione Criteri di raccolta.
Conformità delle comunicazioni e interazioni con intelligenza artificiale
Conformità delle comunicazioni Microsoft Purview fornisce strumenti che consentono di rilevare e gestire le violazioni della conformità alle normative e della condotta aziendale nei vari canali di comunicazione, tra cui richieste e risposte degli utenti per le app per intelligenza artificiale. È progettato con la privacy per impostazione predefinita, pseudonimizzando i nomi utente e incorporando i controlli di accesso in base al ruolo. La soluzione consente di identificare e correggere le comunicazioni inappropriate, ad esempio la condivisione di informazioni sensibili, molestie, minacce e contenuti per adulti.
Per altre informazioni sull'uso dei criteri di conformità delle comunicazioni per le app per intelligenza artificiale, vedere Configurare criteri di conformità delle comunicazioni per rilevare le interazioni generative di intelligenza artificiale.
Informazioni specifiche dell'app per intelligenza artificiale:
Supporto limitato al browser Edge, per ChatGPT, Microsoft Chat (versione consumer), Google Gemini e DeepSeek.
Per richieste e risposte, richiede un criterio di raccolta che includa l'impostazione per acquisire il contenuto. Per altre informazioni, vedere Panoramica della soluzione Criteri di raccolta.
Usare la sicurezza dei dati di rete per analizzare le richieste e le risposte a livello di rete, usando un'integrazione di Secure Access Service Edge o Security Service Edge.
Interazioni con eDiscovery e intelligenza artificiale
Microsoft Purview eDiscovery consente di identificare e fornire informazioni elettroniche che possono essere usate come prova in casi legali. Gli strumenti di eDiscovery in Microsoft Purview supportano la ricerca di contenuto nei team di Exchange Online, OneDrive for Business, SharePoint Online, Microsoft Teams, Gruppi di Microsoft 365 e Viva Engage. È quindi possibile impedire l'eliminazione e l'esportazione delle informazioni.
Poiché le richieste e le risposte degli utenti per le app di intelligenza artificiale vengono archiviate nella cassetta postale di un utente, è possibile creare un caso e usare la ricerca quando la cassetta postale di un utente è selezionata come origine per una query di ricerca. Ad esempio, selezionare e recuperare questi dati dalla cassetta postale di origine selezionando dal generatore di query Aggiungitipo di>condizione>Uguale a una qualsiasi delle>opzioni Aggiungi/Rimuovi altre interazioni>copilot.
Dopo aver perfezionato la ricerca, è possibile esportare i risultati o aggiungerlo a un set di revisione. È possibile esaminare ed esportare le informazioni direttamente dal set di revisione.
Per altre informazioni sull'identificazione e l'eliminazione dei dati di interazione con l'intelligenza artificiale degli utenti, vedere Cercare ed eliminare i dati copilot in eDiscovery
Informazioni specifiche dell'app per intelligenza artificiale:
Supporto limitato al browser Edge, per ChatGPT, Microsoft Chat (versione consumer), Google Gemini e DeepSeek.
Per richieste e risposte, richiede un criterio di raccolta che includa l'impostazione per acquisire il contenuto. Per altre informazioni, vedere Panoramica della soluzione Criteri di raccolta.
Usare la sicurezza dei dati di rete per analizzare richieste e risposte a livello di rete.
Gestione del ciclo di vita dei dati e interazioni con l'intelligenza artificiale
Gestione del ciclo di vita dei dati di Microsoft Purview fornisce strumenti e funzionalità per gestire il ciclo di vita dei dati dell'organizzazione mantenendo il contenuto necessario ed eliminando contenuti non necessari. Questi strumenti garantiscono la conformità ai requisiti aziendali, legali e normativi.
Usare i criteri di conservazione per conservare o eliminare automaticamente le richieste e le risposte degli utenti per le app per intelligenza artificiale. Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Informazioni sulla conservazione per le app copilot & per intelligenza artificiale.
Come per tutti i criteri e i blocchi di conservazione, se più criteri per la stessa posizione si applicano a un utente, i principi di conservazione resolvono eventuali conflitti. Ad esempio, i dati vengono conservati per la durata più lunga di tutti i criteri di conservazione applicati o dei blocchi di eDiscovery.
Informazioni specifiche dell'app per intelligenza artificiale:
Supporto limitato al browser Edge, per ChatGPT, Microsoft Chat (versione consumer), Google Gemini e DeepSeek.
Per i criteri di conservazione, selezionare l'opzione Altre app per intelligenza artificiale.
Per richieste e risposte, richiede un criterio di raccolta che includa l'impostazione per acquisire il contenuto. Per altre informazioni, vedere Panoramica della soluzione Criteri di raccolta.
Usare la sicurezza dei dati di rete per mantenere richieste e risposte a livello di rete.
Usare la sicurezza dei dati del browser per mantenere richieste e risposte a livello di browser Edge.
Interazioni con Compliance Manager e intelligenza artificiale
Microsoft Purview Compliance Manager è una soluzione che consente di valutare e gestire automaticamente la conformità nell'ambiente multicloud. Compliance Manager può aiutare l’utente durante tutto il percorso di conformità, dall'inventario dei rischi per la protezione dei dati alla gestione, delle complessità dell'implementazione dei controlli all'aggiornamento su normative e certificazioni e alla segnalazione ai revisori.
Per mantenere la conformità con le normative sull'IA, Compliance Manager fornisce modelli normativi che consentono di valutare, implementare e rafforzare i requisiti di conformità per tutte le app generative di intelligenza artificiale. Ad esempio, il monitoraggio delle interazioni di intelligenza artificiale e la prevenzione della perdita di dati nelle applicazioni di intelligenza artificiale. Per altre informazioni, vedere Valutazioni per le normative sull'intelligenza artificiale.
Introduzione ai passaggi consigliati
Usare la procedura seguente per iniziare a gestire la sicurezza dei dati & conformità per le interazioni con intelligenza artificiale che usano un browser per siti di intelligenza artificiale di terze parti.
Poiché Gestione della postura di sicurezza dei dati per l'intelligenza artificiale è la frontdoor per la protezione e la gestione delle interazioni con intelligenza artificiale, le istruzioni seguenti usano tale soluzione:
Accedere al portale> di Microsoft PurviewSoluzioni>DSPM per l'intelligenza artificiale con un account con autorizzazioni appropriate. Ad esempio, un account membro del ruolo di gruppo Amministratore conformità Microsoft Entra.
Individuare potenziali rischi per la sicurezza nelle interazioni con altre app per intelligenza artificiale
Da DSPM per panoramica dell'intelligenza artificiale>, nella sezione Introduzione individuare ed eseguire azioni nei passaggi necessari seguenti:
- Installare l'estensione del browser Microsoft Purview
- Eseguire l'onboarding dei dispositivi in Microsoft Purview
- Estendere le informazioni dettagliate per l'individuazione dei dati
Se sono necessarie altre informazioni sull'estensione del browser o altri requisiti di onboarding, vedere Prerequisiti per Gestione della postura di sicurezza dei dati per l'intelligenza artificiale.
Per altre informazioni sui criteri con un clic creati automaticamente con l'opzione per estendere le informazioni dettagliate per l'individuazione dei dati, vedere Criteri predefiniti per l'individuazione dei dati tramite Gestione della postura di sicurezza dei dati per l'intelligenza artificiale e i criteri che hanno l'origine Di estendere le informazioni dettagliate per l'individuazione dei dati.
Attendere almeno un giorno per i dati e quindi passare alla pagina Report per visualizzare i risultati dei criteri. Selezionare Altre app per intelligenza artificiale e visualizzare le informazioni, ad esempio:
- Interazioni totali nel tempo (altre app per intelligenza artificiale)
- Visite totali (altre app per intelligenza artificiale)
- Interazioni sensibili per app per intelligenza artificiale
- Gravità del rischio Insider
- Gravità del rischio Insider per app per intelligenza artificiale
Selezionare Visualizza dettagli per ogni grafico del report per visualizzare le attività dettagliate in Esplora attività.
Selezionare i filtri disponibili per visualizzare i risultati delle esperienze Copilot & agenti in base al tipo di attività, alla categoria di app per intelligenza artificiale, all'app e all'ambito per le unità amministrative e altro ancora. Eseguire quindi il drill-down di ogni attività per visualizzare i dettagli che includono la visualizzazione delle richieste e della risposta quando si è membri del gruppo di ruoli Visualizzatore contenuto di Esplora contenuto di Microsoft Purview. Per altre informazioni su questo requisito, vedere Autorizzazioni per Gestione della postura di sicurezza dei dati per l'intelligenza artificiale.
Proteggere i dati sensibili nelle interazioni con altre app per intelligenza artificiale
Nella pagina DSPM per IA>Recommendations selezionare Fortify your data security (Fortifica la sicurezza dei dati) in Non avviato per creare i criteri seguenti con un clic:
Impedisci agli utenti a rischio elevato di incollare o caricare informazioni sensibili nei siti di intelligenza artificiale: questa raccomandazione crea un criterio che usa Protezione adattiva per fornire un blocco con override agli utenti a rischio elevato che tentano di incollare o caricare informazioni sensibili in altre app per intelligenza artificiale in Edge, Chrome e Firefox. Questo criterio copre tutti gli utenti e i gruppi dell'organizzazione in modalità test.
Impedisci agli utenti a rischio elevato di inviare richieste alle app per intelligenza artificiale in Microsoft Edge: questa raccomandazione illustra il processo di creazione di criteri di prevenzione della perdita dei dati purview per bloccare gli utenti con rischi elevati, moderati e secondari che tentano di inserire informazioni nelle app di intelligenza artificiale durante l'uso di Microsoft Edge.
Blocca la condivisione di informazioni sensibili alle app di intelligenza artificiale in Edge: questa raccomandazione illustra il processo di creazione di un criterio di prevenzione della perdita dei dati (DLP) Purview per rilevare inline per una selezione di tipi di informazioni sensibili comuni e impedisce l'invio di richieste nelle app di intelligenza artificiale durante l'uso di Microsoft Edge.
Applicare controlli di conformità alle interazioni con altre app per intelligenza artificiale
Se è necessario assicurarsi che le interazioni con altre app per intelligenza artificiale supportate vengano mantenute per motivi di conformità:
Nel portale di Microsoft Purview passare a Criteri diconservazionecriteri> di gestione> del ciclo di vita dei dati e creare criteri di conservazione per mantenere le interazioni con altre app per intelligenza artificiale selezionando la posizione Altre app per intelligenza artificiale e specificando il periodo di conservazione richiesto. Per altre informazioni, vedere Creare e configurare i criteri di conservazione.
Nota
La conservazione è supportata solo per il browser Edge e per ChatGPT, Microsoft Chat (versione consumer), Google Gemini e DeepSeek.
Esaminare regolarmente i report in DSPM per l'intelligenza artificiale per determinare se è necessario apportare modifiche e usare Esplora attività ed eventi per un'analisi più approfondita del modo in cui gli utenti interagiscono con altre app per intelligenza artificiale quando usano un browser per siti di intelligenza artificiale di terze parti.