Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità
Usare le sezioni seguenti per identificare le funzionalità di Microsoft Purview supportate per le interazioni di intelligenza artificiale con gli agenti nei canali di Teams e alcune indicazioni introduttive per gestire queste interazioni di intelligenza artificiale per la sicurezza e la conformità.
Per altre informazioni, vedere Introduzione a Channel Agent in Microsoft Teams.
Capacità supportate
Usare la tabella seguente per visualizzare a colpo d'occhio le funzionalità di Microsoft Purview supportate con Channel Agent in Teams.
| Funzionalità o soluzione in Microsoft Purview | Supportato per le interazioni con intelligenza artificiale |
|---|---|
| DSPM per intelligenza artificiale (versione classica) e DSPM (anteprima) | ✓ |
| Controllo | ✓ |
| Classificazione dei dati | ✓ |
| Etichette di riservatezza | ✓ |
| Crittografia senza etichette di riservatezza | ✕ |
| Prevenzione della perdita di dati | ✓ |
| Gestione dei rischi Insider | ✕ |
| Conformità delle comunicazioni | ✓ |
| eDiscovery | ✓ |
| Gestione del ciclo di vita dei dati | ✓ |
| Compliance Manager | ✓ |
DSPM per intelligenza artificiale (versione classica) e DSPM (anteprima)
Usare Gestione della postura di sicurezza dei dati per l'intelligenza artificiale (versione classica) o Gestione della postura di sicurezza dei dati (anteprima) come frontdoor per individuare, proteggere e applicare i controlli di conformità per l'intelligenza artificiale l'utilizzo nell'azienda. Entrambe le versioni DSPM usano i controlli esistenti di Microsoft Purview Information Protection e la gestione della conformità con strumenti grafici e report facili da usare per ottenere rapidamente informazioni dettagliate sull'uso dell'IA all'interno dell'organizzazione. Grazie alle raccomandazioni personalizzate e ai criteri con un clic, è possibile proteggere i dati e rispettare i requisiti normativi.
Informazioni specifiche dell'app per intelligenza artificiale:
Criteri disponibili con un clic :
- DSPM per l'intelligenza artificiale - Rilevare l'utilizzo rischioso dell'IA dall'azione di raccomandazione o correzione Rilevare interazioni rischiose nelle app per intelligenza artificiale.
- DSPM per L'intelligenza artificiale - Comportamento non etico nelle app di intelligenza artificiale dall'azione di raccomandazione o correzione Rilevare un comportamento non etico nell'intelligenza artificiale.
- DSPM per l'intelligenza artificiale - Rilevare le informazioni sensibili condivise con l'intelligenza artificiale tramite rete dall'azione di raccomandazione o correzione Estendere le informazioni dettagliate ai dati sensibili nelle interazioni con le app per intelligenza artificiale.
Controllo e interazioni con intelligenza artificiale
Microsoft Purview Audit soluzioni forniscono strumenti completi per la ricerca e la gestione dei record di controllo delle attività eseguite in vari servizi Microsoft da utenti e amministratori e consentono alle organizzazioni di rispondere in modo efficace agli eventi di sicurezza, alle indagini forensi, alle indagini interne e agli obblighi di conformità.
Come altre attività, le richieste e le risposte vengono acquisite nel log di controllo unificato. Gli eventi includono come e quando gli utenti interagiscono con l'app per intelligenza artificiale e possono includere il servizio Microsoft 365 in cui si è svolta l'attività e i riferimenti ai file archiviati in Microsoft 365 a cui è stato eseguito l'accesso durante l'interazione. Se questi file hanno un'etichetta di riservatezza applicata, anche questa viene acquisita.
Questi eventi vengono inseriti in Esplora attività in DSPM per l'intelligenza artificiale e nella scheda Attività di intelligenza artificiale in Esplora attività dalla versione di anteprima di DSPM, in cui è possibile visualizzare i dati delle richieste e delle risposte. È anche possibile usare la soluzione Audit del portale di Microsoft Purview per cercare e trovare questi eventi di controllo.
Per altre informazioni, vedere Log di controllo per le attività copilot e di intelligenza artificiale.
Classificazione dei dati e interazioni con intelligenza artificiale
La classificazione dei dati di Microsoft Purview offre un framework completo per identificare e contrassegnare i dati sensibili in vari servizi Microsoft, tra cui Office 365, Dynamics 365 e Azure. La classificazione dei dati è spesso il primo passaggio per garantire la conformità alle normative sulla protezione dei dati e la protezione da accessi, modifiche o distruzione non autorizzati. È possibile usare le classificazioni di sistema predefinite o crearne di personalizzate.
I tipi di informazioni sensibili e i classificatori sottoponibili a training possono essere usati per trovare dati sensibili nelle richieste e nelle risposte degli utenti quando usano app per intelligenza artificiale. Le informazioni risultanti vengono quindi visualizzate nella panoramica dei report di Microsoft Purview e in Esplora attività in DSPM per l'intelligenza artificiale e nella scheda Attività di intelligenza artificiale in Esplora attività dalla versione di anteprima di DSPM.
Etichette di riservatezza e interazioni con intelligenza artificiale
Le app di intelligenza artificiale supportate da Microsoft Purview usano i controlli esistenti per garantire che i dati archiviati nel tenant non vengano mai restituiti all'utente o usati da un modello LLM (Large Language Model) se l'utente non ha accesso a tali dati. Quando i dati hanno etichette di riservatezza dell'organizzazione applicate al contenuto, esiste un ulteriore livello di protezione:
Quando un file è aperto in Word, Excel, PowerPoint o in modo analogo un evento di posta elettronica o calendario è aperto in Outlook, la riservatezza dei dati viene visualizzata per gli utenti dell'app con il nome dell'etichetta e i contrassegni di contenuto (ad esempio intestazione o testo del piè di pagina) configurati per l'etichetta. Loop componenti e pagine supportano anche le stesse etichette di riservatezza.
Quando l'etichetta di riservatezza applica la crittografia, gli utenti devono avere il diritto di utilizzo EXTRACT, nonché VIEW, affinché le app di intelligenza artificiale restituiscano i dati.
Questa protezione si estende ai dati archiviati all'esterno del tenant di Microsoft 365 quando è aperta in un'app di Office (dati in uso). Ad esempio, archiviazione locale, condivisioni di rete e archiviazione cloud.
Consiglio
Se non è già stato fatto, è consigliabile abilitare le etichette di riservatezza per SharePoint e OneDrive e acquisire familiarità con i tipi di file e le configurazioni delle etichette che questi servizi possono elaborare. Quando le etichette di riservatezza non sono abilitate per questi servizi, i file crittografati a cui Copilot e gli agenti possono accedere sono limitati ai dati in uso dalle app di Office in Windows.
Abilita le etichette di riservatezza per i file di Office in SharePoint e OneDrive.
Se non si usano già etichette di riservatezza, vedere Introduzione alle etichette di riservatezza.
Informazioni specifiche dell'app per intelligenza artificiale:
L'agente di canale nelle risposte di Teams visualizza l'etichetta di riservatezza per gli elementi elencati nella risposta e nelle citazioni. Usando il numero di priorità delle etichette di riservatezza definito nel portale di Microsoft Purview, la risposta più recente di Channel Agent visualizza l'etichetta di riservatezza con priorità più alta dai dati usati per la chat del canale.
Anche se gli amministratori della conformità definiscono la priorità di un'etichetta di riservatezza, un numero di priorità più alto indica in genere una maggiore riservatezza del contenuto, con autorizzazioni più restrittive. Di conseguenza, le risposte dell'agente di canale visualizzano l'etichetta di riservatezza più restrittiva per informare l'utente sulla riservatezza dei dati.
Quando Channel Agent crea contenuto appena creato che supporta le etichette di riservatezza, tale azione supporta l'ereditarietà delle etichette di riservatezza. Per altre informazioni, vedere la sezione seguente.
Attualmente, Channel Agent può riepilogare per un utente autorizzato il contenuto degli elementi crittografati che uno o più utenti nel canale non hanno le autorizzazioni per aprire. L'utente richiedente viene avvisato di questo rischio e gli amministratori hanno sempre la possibilità di disattivare Channel Agent in Teams. Per altre informazioni su questa e altre considerazioni sulla distribuzione, vedere Considerazioni sulla protezione delle informazioni per Channel Agent in Teams.
Ereditarietà delle etichette di riservatezza
Se si usa Channel Agent in Teams per creare nuovo contenuto in base a un elemento a cui è applicata un'etichetta di riservatezza, l'etichetta di riservatezza dell'elemento di origine viene ereditata automaticamente, con le impostazioni di protezione dell'etichetta.
Ad esempio, si chiede a un agente di creare un componente Loop basato su un file caricato nel canale. Il file ha l'etichetta di riservatezza Confidential\Project Bluebird applicata e tale etichetta è configurata per applicare la crittografia che limita l'accesso alle persone coinvolte nel progetto. Il nuovo componente Loop viene automaticamente etichettato Confidential\Project Bluebird e non può essere aperto da utenti che non sono coinvolti nel progetto.
Elementi generati dall'intelligenza artificiale che attualmente supportano l'ereditarietà delle etichette di riservatezza per Channel Agent in Teams: Loop componenti e pagine e file in OneDrive e SharePoint.
Se vengono usate più origini con etichetta per creare nuovo contenuto, l'etichetta di riservatezza con la priorità più alta viene usata per l'ereditarietà delle etichette.
Come per tutti gli scenari di etichettatura automatica, un utente può sempre eseguire l'override e sostituire un'etichetta ereditata (o rimuovere, se non si usa l'etichettatura obbligatoria).
Prevenzione della perdita di dati e interazioni con intelligenza artificiale
Prevenzione della perdita dei dati Microsoft Purview (DLP) consente di identificare gli elementi sensibili tra i servizi e gli endpoint di Microsoft 365, di monitorarli e di proteggerli dalla perdita di tali elementi. Usa l'ispezione approfondita dei contenuti e l'analisi contestuale per identificare gli elementi sensibili e applica criteri per proteggere i dati sensibili, ad esempio record finanziari, informazioni sull'integrità o proprietà intellettuale.
I computer Windows di cui è stato eseguito l'onboarding in Microsoft Purview possono essere configurati per i criteri di prevenzione della perdita dei dati degli endpoint che avvisano o impediscono agli utenti di condividere informazioni sensibili con siti di intelligenza artificiale generativi di terze parti a cui si accede tramite un browser. Ad esempio, a un utente non è consentito incollare i numeri di carta di credito in ChatGPT o viene visualizzato un avviso che può essere sostituito. Per altre informazioni sulle azioni DLP supportate e sulle piattaforme che le supportano, vedere le prime due righe della tabella dalle attività endpoint su cui è possibile monitorare ed eseguire azioni.
Informazioni specifiche dell'app per intelligenza artificiale:
- La funzionalità DLP seguente è supportata solo per Channel Agent in Teams:
- Quando un agente interagisce con un utente in una conversazione di Teams, un criterio DLP può analizzare i messaggi alla ricerca di dati sensibili.
Insider Risk Management e interazioni con intelligenza artificiale
Gestione dei rischi Insider Microsoft Purview consente di rilevare, analizzare e attenuare i rischi interni, ad esempio furto ip, perdita di dati e violazioni della sicurezza. Sfrutta i modelli di Machine Learning e vari segnali di Microsoft 365 e indicatori di terze parti per identificare potenziali attività insider dannose o involontarie. La soluzione include controlli della privacy come lo pseudonimismo e l'accesso in base al ruolo, garantendo la privacy a livello di utente e consentendo agli analisti dei rischi di intraprendere le azioni appropriate.
Usare il modello di criteri di utilizzo dell'IA rischioso per rilevare l'utilizzo rischioso che include attacchi di inserimento rapido e l'accesso ai materiali protetti. Le informazioni dettagliate da questi segnali sono integrate in Microsoft Defender XDR per fornire una visione completa dei rischi correlati all'IA.
Conformità delle comunicazioni e interazioni con intelligenza artificiale
Conformità delle comunicazioni Microsoft Purview fornisce strumenti che consentono di rilevare e gestire le violazioni della conformità alle normative e della condotta aziendale nei vari canali di comunicazione, tra cui richieste e risposte degli utenti per le app per intelligenza artificiale. È progettato con la privacy per impostazione predefinita, pseudonimizzando i nomi utente e incorporando i controlli di accesso in base al ruolo. La soluzione consente di identificare e correggere le comunicazioni inappropriate, ad esempio la condivisione di informazioni sensibili, molestie, minacce e contenuti per adulti.
Per altre informazioni sull'uso dei criteri di conformità delle comunicazioni per le app per intelligenza artificiale, vedere Configurare criteri di conformità delle comunicazioni per rilevare le interazioni generative di intelligenza artificiale.
Interazioni con eDiscovery e intelligenza artificiale
Microsoft Purview eDiscovery consente di identificare e fornire informazioni elettroniche che possono essere usate come prova in casi legali. Gli strumenti di eDiscovery in Microsoft Purview supportano la ricerca di contenuto nei team di Exchange Online, OneDrive for Business, SharePoint Online, Microsoft Teams, Gruppi di Microsoft 365 e Viva Engage. È quindi possibile impedire l'eliminazione e l'esportazione delle informazioni.
Poiché le richieste e le risposte degli utenti per le app di intelligenza artificiale vengono archiviate nella cassetta postale di un utente, è possibile creare un caso e usare la ricerca quando la cassetta postale di un utente è selezionata come origine per una query di ricerca. Ad esempio, selezionare e recuperare questi dati dalla cassetta postale di origine selezionando dal generatore di query Aggiungitipo di>condizione>Contiene qualsiasi> attivitàModifica>Copilot. Questa condizione di query include tutte le attività di Copilot e di altre applicazioni di intelligenza artificiale.
Dopo aver perfezionato la ricerca, è possibile esportare i risultati o aggiungerlo a un set di revisione. È possibile esaminare ed esportare le informazioni direttamente dal set di revisione.
Per altre informazioni sull'identificazione e l'eliminazione dei dati di interazione con l'intelligenza artificiale degli utenti, vedere Cercare ed eliminare i dati copilot in eDiscovery.
Gestione del ciclo di vita dei dati e interazioni con l'intelligenza artificiale
Gestione del ciclo di vita dei dati di Microsoft Purview fornisce strumenti e funzionalità per gestire il ciclo di vita dei dati dell'organizzazione mantenendo il contenuto necessario ed eliminando contenuti non necessari. Questi strumenti garantiscono la conformità ai requisiti aziendali, legali e normativi.
Usare i criteri di conservazione per conservare o eliminare automaticamente le richieste e le risposte degli utenti per le app per intelligenza artificiale. Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Informazioni sulla conservazione per le app copilot & per intelligenza artificiale.
Come per tutti i criteri e i blocchi di conservazione, se più criteri per la stessa posizione si applicano a un utente, i principi di conservazione resolvono eventuali conflitti. Ad esempio, i dati vengono conservati per la durata più lunga di tutti i criteri di conservazione applicati o dei blocchi di eDiscovery.
Informazioni specifiche dell'app per intelligenza artificiale:
- Configurazione per la conservazione e l'eliminazione:
- Per le interazioni di Channel Agent in Teams, usare un criterio di conservazione con l'opzione Chat di Teams .
Interazioni con Compliance Manager e intelligenza artificiale
Microsoft Purview Compliance Manager è una soluzione che consente di valutare e gestire automaticamente la conformità nell'ambiente multicloud. Compliance Manager può aiutare l’utente durante tutto il percorso di conformità, dall'inventario dei rischi per la protezione dei dati alla gestione, delle complessità dell'implementazione dei controlli all'aggiornamento su normative e certificazioni e alla segnalazione ai revisori.
Per mantenere la conformità con le normative sull'IA, Compliance Manager fornisce modelli normativi che consentono di valutare, implementare e rafforzare i requisiti di conformità per tutte le app generative di intelligenza artificiale. Ad esempio, il monitoraggio delle interazioni di intelligenza artificiale e la prevenzione della perdita di dati nelle applicazioni di intelligenza artificiale. Per altre informazioni, vedere Valutazioni per le normative sull'intelligenza artificiale.
Introduzione ai passaggi consigliati
Usare la procedura seguente per iniziare a gestire la sicurezza dei dati & la conformità per le interazioni di intelligenza artificiale con Channel Agent in Teams.
Nota
Questi passaggi sono incentrati sulla gestione di un'app o di un agente di intelligenza artificiale specifico. Per una copertura più ampia che usa obiettivi di sicurezza con flussi di lavoro guidati, usare il nuovo Gestione della postura di sicurezza dei dati, attualmente in anteprima.
Poiché Gestione della postura di sicurezza dei dati per l'intelligenza artificiale è la frontdoor per la protezione e la gestione delle interazioni con intelligenza artificiale, le istruzioni seguenti usano tale soluzione:
Accedere al portale> di Microsoft PurviewSoluzioni>DSPM per l'intelligenza artificiale (classica) con un account con autorizzazioni appropriate. Ad esempio, un account membro del ruolo di gruppo Amministratore conformità Microsoft Entra.
Individuare le interazioni da Channel Agent in Teams
Da DSPM per L'intelligenza artificiale (versione classica)>Panoramica, nella sezione Introduzione verificare se il controllo è attivato per il tenant. In caso contrario, selezionare Attiva Microsoft Purview Audit.
Nella sezione Raccomandazioni selezionare Visualizza tutte le raccomandazioni per passare alla pagina Raccomandazioni . Se lo stato della raccomandazione seguente è Non avviato, selezionarlo per creare un criterio con un clic:
- Rilevare interazioni rischiose nelle app per intelligenza artificiale: questa raccomandazione crea un criterio per calcolare i rischi degli utenti rilevando richieste e risposte rischiose in Microsoft 365 Copilot, agenti e altre app generative per intelligenza artificiale.
Attendere almeno un giorno per i dati e quindi passare alla pagina Report . Selezionare la categoria di app di intelligenza artificiale delle esperienze Copilot & agenti e visualizzare informazioni come:
- Interazioni totali nel tempo (Microsoft Copilot e agenti)
- Interazioni sensibili per app per intelligenza artificiale
- Gravità del rischio Insider
- Gravità del rischio Insider per app per intelligenza artificiale
Selezionare Visualizza dettagli per ogni grafico del report per visualizzare le attività dettagliate in Esplora attività.
Selezionare i filtri disponibili per visualizzare i risultati delle esperienze Copilot & agenti in base al tipo di attività, alla categoria di app per intelligenza artificiale, all'app e all'ambito per le unità amministrative e altro ancora. Eseguire quindi il drill-down di ogni attività per visualizzare i dettagli che includono la visualizzazione delle richieste e della risposta quando si è membri del gruppo di ruoli Visualizzatore contenuto di Esplora contenuto di Microsoft Purview. Per altre informazioni su questo requisito, vedere Autorizzazioni per Gestione della postura di sicurezza dei dati per l'intelligenza artificiale.
Applicare controlli di conformità alle interazioni con Channel Agent in Teams
Se è necessario assicurarsi che le interazioni con Channel Agent in Teams vengano mantenute per motivi di conformità:
Nel portale di Microsoft Purview passare a Criteri diconservazionecriteri> di gestione> del ciclo di vita dei dati e creare criteri di conservazione con il percorso dei criteri seguente: - Teams chatta per le interazioni con un agente di canale
Se è necessario mantenere, raccogliere, analizzare, esaminare o esportare interazioni per Channel Agent in Teams:
Nel portale di Microsoft Purview passare a eDiscovery CasesCreate case (Crea caso di eDiscovery>Case>). Nel caso, creare una ricerca e usare la proprietà ItemClass e il
IPM.SkypeTeams.Messagevalore per cercare queste interazioni nell'organizzazione.
Altra documentazione che consente di proteggere e gestire le app generative per intelligenza artificiale
La protezione e la gestione delle interazioni di intelligenza artificiale con Channel Agent in Teams hanno molto in comune con la protezione e la gestione delle interazioni di IA con Microsoft 365 Copilot. Per informazioni più dettagliate, vedere Considerazioni su Microsoft Purview per gestire Microsoft 365 Copilot e Channel Agent in Teams per la sicurezza e la conformità.