Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità
Usare le sezioni seguenti per identificare le funzionalità di Microsoft Purview supportate per le interazioni con intelligenza artificiale per le app di intelligenza artificiale personalizzate registrate con Entra per l'autenticazione utente e integrate con il Microsoft Purview SDK. Fare quindi riferimento alle raccomandazioni introduttive per gestire queste interazioni di intelligenza artificiale per la sicurezza e la conformità.
Per gestire queste interazioni di intelligenza artificiale con Microsoft Purview è necessario abilitare la fatturazione con pagamento in base al consumo nell'organizzazione.
Capacità supportate
Usare la tabella seguente per visualizzare a colpo d'occhio le funzionalità di Microsoft Purview supportate per le app di intelligenza artificiale registrate da Entra.
Funzionalità o soluzione in Microsoft Purview | Supportato per le interazioni con intelligenza artificiale |
---|---|
DSPM per l'intelligenza artificiale | ✓ |
Controllo | ✓ |
Classificazione dei dati | ✓ |
Etichette di riservatezza | ✓ |
Crittografia senza etichette di riservatezza | ✓ |
Prevenzione della perdita di dati | ✓ |
Gestione dei rischi Insider | ✓ |
Conformità delle comunicazioni | ✓ |
eDiscovery | ✓ |
Gestione del ciclo di vita dei dati | ✓ |
Compliance Manager | ✓ |
Gestione della postura di sicurezza dei dati per l'intelligenza artificiale
Usare Gestione della postura di sicurezza dei dati di Microsoft Purview (DSPM) per l'intelligenza artificiale come frontdoor per individuare, proteggere e applicare i controlli di conformità per l'utilizzo dell'IA in tutta l'azienda. Questa soluzione usa i controlli esistenti della protezione delle informazioni e della gestione della conformità di Microsoft Purview con strumenti grafici e report facili da usare per ottenere rapidamente informazioni dettagliate sull'uso dell'IA all'interno dell'organizzazione. Con raccomandazioni personalizzate, i criteri con un solo clic consentono di proteggere i dati e di rispettare i requisiti normativi.
Per altre informazioni, vedere Informazioni su Gestione della postura di sicurezza dei dati (DSPM) per l'intelligenza artificiale.
Informazioni specifiche dell'app per intelligenza artificiale:
Raccomandazione Ottenere assistenza guidata alle normative sull'intelligenza artificiale, che usa modelli normativi di mapping dei controlli di Compliance Manager.
Criteri disponibili con un clic :
- DSPM per l'intelligenza artificiale - Acquisire le interazioni per le app di intelligenza artificiale aziendali dalla raccomandazione Interazioni sicure dalle app aziendali.
- DSPM per l'intelligenza artificiale - Rilevare le informazioni sensibili condivise con l'intelligenza artificiale tramite rete dalla raccomandazione Estendere le informazioni dettagliate ai dati sensibili nelle interazioni con le app di intelligenza artificiale.
Controllo e interazioni con intelligenza artificiale
Microsoft Purview Audit soluzioni forniscono strumenti completi per la ricerca e la gestione dei record di controllo delle attività eseguite in vari servizi Microsoft da utenti e amministratori e consentono alle organizzazioni di rispondere in modo efficace agli eventi di sicurezza, alle indagini forensi, alle indagini interne e agli obblighi di conformità.
Come altre attività, le richieste e le risposte vengono acquisite nel log di controllo unificato. Gli eventi includono come e quando gli utenti interagiscono con l'app per intelligenza artificiale e possono includere il servizio Microsoft 365 in cui si è svolta l'attività e i riferimenti ai file archiviati in Microsoft 365 a cui è stato eseguito l'accesso durante l'interazione. Se questi file hanno un'etichetta di riservatezza applicata, anche questa viene acquisita.
Questi eventi vengono inseriti in Esplora attività in Gestione della postura di sicurezza dei dati per l'intelligenza artificiale, dove è possibile visualizzare i dati delle richieste e delle risposte. È anche possibile usare la soluzione Audit del portale di Microsoft Purview per cercare e trovare questi eventi di controllo.
Per altre informazioni, vedere Log di controllo per le attività copilot e di intelligenza artificiale.
Classificazione dei dati e interazioni con intelligenza artificiale
La classificazione dei dati di Microsoft Purview offre un framework completo per identificare e contrassegnare i dati sensibili in vari servizi Microsoft, tra cui Office 365, Dynamics 365 e Azure. La classificazione dei dati è spesso il primo passaggio per garantire la conformità alle normative sulla protezione dei dati e la protezione da accessi, modifiche o distruzione non autorizzati. È possibile usare le classificazioni di sistema predefinite o crearne di personalizzate.
I tipi di informazioni sensibili e i classificatori sottoponibili a training possono essere usati per trovare dati sensibili nelle richieste e nelle risposte degli utenti quando usano app per intelligenza artificiale. Le informazioni risultanti vengono quindi visualizzate nel dashboard di classificazione dei dati e in Esplora attività in Gestione della postura di sicurezza dei dati per l'intelligenza artificiale.
Etichette di riservatezza e interazioni con intelligenza artificiale
Le app di intelligenza artificiale supportate da Microsoft Purview usano i controlli esistenti per garantire che i dati archiviati nel tenant non vengano mai restituiti all'utente o usati da un modello LLM (Large Language Model) se l'utente non ha accesso a tali dati. Quando i dati hanno etichette di riservatezza dell'organizzazione applicate al contenuto, esiste un ulteriore livello di protezione:
Quando un file è aperto in Word, Excel, PowerPoint o in modo analogo un evento di posta elettronica o calendario è aperto in Outlook, la riservatezza dei dati viene visualizzata per gli utenti dell'app con il nome dell'etichetta e i contrassegni di contenuto (ad esempio intestazione o testo del piè di pagina) configurati per l'etichetta. Loop componenti e pagine supportano anche le stesse etichette di riservatezza.
Quando l'etichetta di riservatezza applica la crittografia, gli utenti devono avere il diritto di utilizzo EXTRACT, nonché VIEW, affinché le app di intelligenza artificiale restituiscano i dati.
Questa protezione si estende ai dati archiviati all'esterno del tenant di Microsoft 365 quando è aperta in un'app di Office (dati in uso). Ad esempio, archiviazione locale, condivisioni di rete e archiviazione cloud.
Consiglio
Se non è già stato fatto, è consigliabile abilitare le etichette di riservatezza per SharePoint e OneDrive e acquisire familiarità con i tipi di file e le configurazioni delle etichette che questi servizi possono elaborare. Quando le etichette di riservatezza non sono abilitate per questi servizi, i file crittografati a cui Copilot e gli agenti possono accedere sono limitati ai dati in uso dalle app di Office in Windows.
Abilita le etichette di riservatezza per i file di Office in SharePoint e OneDrive.
Se non si usano già etichette di riservatezza, vedere Introduzione alle etichette di riservatezza.
Crittografia senza etichette di riservatezza e interazioni con intelligenza artificiale
Anche se non viene applicata un'etichetta di riservatezza al contenuto, i servizi e i prodotti potrebbero usare le funzionalità di crittografia del servizio Azure Rights Management. Di conseguenza, le app di intelligenza artificiale possono comunque verificare i diritti di utilizzo VIEW ed EXTRACT prima di restituire dati e collegamenti a un utente, ma non esiste un'ereditarietà automatica della protezione per i nuovi elementi.
Consiglio
Si otterrà la migliore esperienza utente quando si usano sempre etichette di riservatezza per proteggere i dati e la crittografia viene applicata da un'etichetta.
Esempi di prodotti e servizi che possono usare le funzionalità di crittografia del servizio Azure Rights Management senza etichette di riservatezza:
- Crittografia dei messaggi di Microsoft Purview
- Gestione dei diritti sulle informazioni (IRM) di Microsoft
- Connettore Microsoft Rights Management
- Microsoft Rights Management
Per altri metodi di crittografia che non utilizzano il servizio Azure Rights Management:
I messaggi di posta elettronica protetti da S/MIME non verranno restituiti da Copilot e Copilot non è disponibile in Outlook quando è aperto un messaggio di posta elettronica protetto S/MIME.
Non è possibile accedere ai documenti protetti da password dalle app di intelligenza artificiale a meno che non siano già aperti dall'utente nella stessa app (dati in uso). Le password non vengono ereditate da un elemento di destinazione.
Come per altri servizi di Microsoft 365, ad esempio eDiscovery e ricerca, gli elementi crittografati con Microsoft Purview Customer Key o la propria chiave radice (BYOK) sono supportati e idonei per essere restituiti da Copilot.
Prevenzione della perdita di dati e interazioni con intelligenza artificiale
Prevenzione della perdita dei dati Microsoft Purview (DLP) consente di identificare gli elementi sensibili tra i servizi e gli endpoint di Microsoft 365, di monitorarli e di proteggerli dalla perdita di tali elementi. Usa l'ispezione approfondita dei contenuti e l'analisi contestuale per identificare gli elementi sensibili e applica criteri per proteggere i dati sensibili, ad esempio record finanziari, informazioni sull'integrità o proprietà intellettuale.
I computer Windows di cui è stato eseguito l'onboarding in Microsoft Purview possono essere configurati per i criteri di prevenzione della perdita dei dati degli endpoint che avvisano o impediscono agli utenti di condividere informazioni sensibili con siti di intelligenza artificiale generativi di terze parti a cui si accede tramite un browser. Ad esempio, a un utente viene impedito di incollare i numeri di carta di credito in ChatGPT o viene visualizzato un avviso che può essere sostituito. Per altre informazioni sulle azioni DLP supportate e sulle piattaforme che le supportano, vedere le prime due righe della tabella dalle attività endpoint su cui è possibile monitorare ed eseguire azioni.
Inoltre, un criterio DLP con ambito per un percorso di intelligenza artificiale può limitare le app di intelligenza artificiale dall'elaborazione di contenuti sensibili. Ad esempio, un criterio DLP può limitare Microsoft 365 Copilot dal riepilogo dei file in base alle etichette di riservatezza, ad esempio "Altamente riservato". Dopo aver attivato questo criterio, Microsoft 365 Copilot e gli agenti non riepilogano i file etichettati come "Altamente riservato", ma possono farvi riferimento con un collegamento in modo che l'utente possa quindi aprire e visualizzare il contenuto usando Word. Per altre informazioni che includono quali app per intelligenza artificiale supportano questa configurazione DLP, vedere Informazioni sul percorso dei criteri di Microsoft 365 Copilot.
Informazioni specifiche dell'app per intelligenza artificiale:
- Il supporto attualmente è disponibile solo per un criterio DLP che blocca le richieste in base ai tipi di informazioni riservate. Questa operazione richiede la configurazione di un cmdlet di PowerShell con ambito per un'app di intelligenza artificiale registrata da Entra specifica. L'app per intelligenza artificiale può rispettare questa configurazione grazie all'integrazione con le API Microsoft Purview. Lo sviluppatore di app per intelligenza artificiale può usare questo esempio di GitHub per ottenere questa integrazione.
Insider Risk Management e interazioni con intelligenza artificiale
Gestione dei rischi Insider Microsoft Purview consente di rilevare, analizzare e attenuare i rischi interni, ad esempio furto ip, perdita di dati e violazioni della sicurezza. Sfrutta i modelli di Machine Learning e vari segnali di Microsoft 365 e indicatori di terze parti per identificare potenziali attività insider dannose o involontarie. La soluzione include controlli della privacy come lo pseudonimismo e l'accesso in base al ruolo, garantendo la privacy a livello di utente e consentendo agli analisti dei rischi di intraprendere le azioni appropriate.
Usare il modello di criteri di utilizzo dell'IA rischioso per rilevare l'utilizzo rischioso che include attacchi di inserimento rapido e l'accesso ai materiali protetti. Le informazioni dettagliate da questi segnali sono integrate in Microsoft Defender XDR per fornire una visione completa dei rischi correlati all'IA.
Informazioni specifiche dell'app per intelligenza artificiale:
- Per richieste e risposte, è necessario un criterio di raccolta, ad esempio DSPM per intelligenza artificiale - Acquisire le interazioni per le app di intelligenza artificiale aziendali dalla raccomandazione DSPM per l'intelligenza artificiale Interazioni sicure dalle app aziendali.
Conformità delle comunicazioni e interazioni con intelligenza artificiale
Conformità delle comunicazioni Microsoft Purview fornisce strumenti che consentono di rilevare e gestire le violazioni della conformità alle normative e della condotta aziendale nei vari canali di comunicazione, tra cui richieste e risposte degli utenti per le app per intelligenza artificiale. È progettato con la privacy per impostazione predefinita, pseudonimizzando i nomi utente e incorporando i controlli di accesso in base al ruolo. La soluzione consente di identificare e correggere le comunicazioni inappropriate, ad esempio la condivisione di informazioni sensibili, molestie, minacce e contenuti per adulti.
Per altre informazioni sull'uso dei criteri di conformità delle comunicazioni per le app per intelligenza artificiale, vedere Configurare criteri di conformità delle comunicazioni per rilevare le interazioni generative di intelligenza artificiale.
Informazioni specifiche dell'app per intelligenza artificiale:
- Per richieste e risposte, è necessario un criterio di raccolta, ad esempio DSPM per intelligenza artificiale - Acquisire le interazioni per le app di intelligenza artificiale aziendali dalla raccomandazione DSPM per l'intelligenza artificiale Interazioni sicure dalle app aziendali.
Interazioni con eDiscovery e intelligenza artificiale
Microsoft Purview eDiscovery consente di identificare e fornire informazioni elettroniche che possono essere usate come prova in casi legali. Gli strumenti di eDiscovery in Microsoft Purview supportano la ricerca di contenuto nei team di Exchange Online, OneDrive for Business, SharePoint Online, Microsoft Teams, Gruppi di Microsoft 365 e Viva Engage. È quindi possibile impedire l'eliminazione e l'esportazione delle informazioni.
Poiché le richieste e le risposte degli utenti per le app di intelligenza artificiale vengono archiviate nella cassetta postale di un utente, è possibile creare un caso e usare la ricerca quando la cassetta postale di un utente è selezionata come origine per una query di ricerca. Ad esempio, selezionare e recuperare questi dati dalla cassetta postale di origine selezionando dal generatore di query Aggiungitipo di>condizione>Uguale a una qualsiasi delle>opzioni Aggiungi/Rimuovi altre interazioni>copilot.
Dopo aver perfezionato la ricerca, è possibile esportare i risultati o aggiungerlo a un set di revisione. È possibile esaminare ed esportare le informazioni direttamente dal set di revisione.
Per altre informazioni sull'identificazione e l'eliminazione dei dati di interazione con l'intelligenza artificiale degli utenti, vedere Cercare ed eliminare i dati copilot in eDiscovery
Informazioni specifiche dell'app per intelligenza artificiale:
- Per richieste e risposte, è necessario un criterio di raccolta, ad esempio DSPM per intelligenza artificiale - Acquisire le interazioni per le app di intelligenza artificiale aziendali dalla raccomandazione DSPM per l'intelligenza artificiale Interazioni sicure dalle app aziendali.
Gestione del ciclo di vita dei dati e interazioni con l'intelligenza artificiale
Gestione del ciclo di vita dei dati di Microsoft Purview fornisce strumenti e funzionalità per gestire il ciclo di vita dei dati dell'organizzazione mantenendo il contenuto necessario ed eliminando contenuti non necessari. Questi strumenti garantiscono la conformità ai requisiti aziendali, legali e normativi.
Usare i criteri di conservazione per conservare o eliminare automaticamente le richieste e le risposte degli utenti per le app per intelligenza artificiale. Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Informazioni sulla conservazione per le app copilot & per intelligenza artificiale.
Come per tutti i criteri e i blocchi di conservazione, se più criteri per la stessa posizione si applicano a un utente, i principi di conservazione resolvono eventuali conflitti. Ad esempio, i dati vengono conservati per la durata più lunga di tutti i criteri di conservazione applicati o dei blocchi di eDiscovery.
Informazioni specifiche dell'app per intelligenza artificiale:
Per i criteri di conservazione, selezionare l'opzione per le app enterprise per intelligenza artificiale.
Per richieste e risposte, è necessario un criterio di raccolta, ad esempio DSPM per intelligenza artificiale - Acquisire le interazioni per le app di intelligenza artificiale aziendali dalla raccomandazione DSPM per l'intelligenza artificiale Interazioni sicure dalle app aziendali.
Interazioni con Compliance Manager e intelligenza artificiale
Microsoft Purview Compliance Manager è una soluzione che consente di valutare e gestire automaticamente la conformità nell'ambiente multicloud. Compliance Manager può aiutare l’utente durante tutto il percorso di conformità, dall'inventario dei rischi per la protezione dei dati alla gestione, delle complessità dell'implementazione dei controlli all'aggiornamento su normative e certificazioni e alla segnalazione ai revisori.
Per mantenere la conformità con le normative sull'IA, Compliance Manager fornisce modelli normativi che consentono di valutare, implementare e rafforzare i requisiti di conformità per tutte le app generative di intelligenza artificiale. Ad esempio, il monitoraggio delle interazioni di intelligenza artificiale e la prevenzione della perdita di dati nelle applicazioni di intelligenza artificiale. Per altre informazioni, vedere Valutazioni per le normative sull'intelligenza artificiale.
Introduzione ai passaggi consigliati
Usare la procedura seguente per iniziare a gestire la sicurezza dei dati & la conformità per le interazioni con intelligenza artificiale che usano app di intelligenza artificiale registrate da Entra.
Poiché Gestione della postura di sicurezza dei dati per l'intelligenza artificiale è la frontdoor per la protezione e la gestione delle interazioni con intelligenza artificiale, la maggior parte delle istruzioni seguenti usa questa soluzione:
Accedere al portale> di Microsoft PurviewSoluzioni>DSPM per l'intelligenza artificiale con un account con autorizzazioni appropriate. Ad esempio, un account membro del ruolo di gruppo Amministratore conformità Microsoft Entra.
Nella pagina DSPM peri consigliper l'intelligenza artificiale> individuare e selezionare Interazioni sicure dalle app aziendali, che crea un criterio con un clic per acquisire richieste e risposte dalle app aziendali per intelligenza artificiale.
Attendere almeno un giorno per i dati e quindi passare alla pagina Report per visualizzare i risultati dei criteri. Selezionare la categoria di app per l'intelligenza artificiale delle app enterprise per intelligenza artificiale e visualizzare le informazioni, ad esempio:
- Interazioni totali nel tempo (app per intelligenza artificiale aziendali)
- Interazioni sensibili per app per intelligenza artificiale
- Gravità del rischio Insider
- Gravità del rischio Insider per app per intelligenza artificiale
Selezionare Visualizza dettagli per ogni grafico del report per visualizzare le attività dettagliate in Esplora attività.
Dai filtri selezionare la categoria di app per l'intelligenza artificiale aziendale app aziendali con il filtro App di ??, quindi usare gli altri filtri se è necessario perfezionare ulteriormente i dati visualizzati. Eseguire il drill-down di ogni attività per visualizzare i dettagli che includono la visualizzazione delle richieste e della risposta quando si è membri del gruppo di ruoli Visualizzatore contenuto di Microsoft Purview Content Explorer. Per altre informazioni su questo requisito, vedere Autorizzazioni per Gestione della postura di sicurezza dei dati per l'intelligenza artificiale.
Se devi assicurarti che le interazioni dalle app di IA registrate da Entra vengano mantenute per motivi di conformità:
Nel portale di Microsoft Purview passare a Criteri diconservazionecriteri> di gestione> del ciclo di vita dei dati e creare criteri di conservazione per mantenere le interazioni con le app di IA registrate da Entra selezionando la posizione App enterprise per intelligenza artificiale e specificando il periodo di conservazione richiesto. Per altre informazioni, vedere Creare e configurare i criteri di conservazione.
Esaminare regolarmente i report in DSPM per l'intelligenza artificiale per determinare se è necessario apportare modifiche e usare Esplora attività ed eventi per un'analisi più approfondita del modo in cui gli utenti interagiscono con le app di IA registrate da Entra.