Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Informazioni generali
Che cos'è Microsoft Security Copilot?
Microsoft Security Copilot è un assistente generativo basato sull'intelligenza artificiale per la sicurezza e l'IT. Fornisce informazioni dettagliate e consigli personalizzati usando l'intelligence globale sulle minacce, le procedure consigliate del settore e i dati delle organizzazioni provenienti da Microsoft e dagli strumenti per i partner. Teams può anche automatizzare i flussi di lavoro con agenti Security Copilot autonomi, accelerando le risposte, assegnando priorità ai rischi e riducendo i carichi di lavoro manuali, mantenendo il controllo fermo.
Quali sono i casi d'uso e le funzionalità che Security Copilot sblocca per i clienti?
Security Copilot è incentrato su come semplificare l'esecuzione dei casi d'uso seguenti.
- Analisi e correzione delle minacce alla sicurezza
- Compilazione di query KQL e analisi di script sospetti
- Comprendere i rischi e gestire il comportamento di sicurezza dell'organizzazione
- Risoluzione dei problemi IT più velocemente
- Definizione e gestione dei criteri di sicurezza
- Configurazione di flussi di lavoro del ciclo di vita sicuri
- Sviluppo di report per gli stakeholder
- Automazione delle attività con agenti autonomi
Visitare l'hub di adozione Security Copilot per approfondire il modo in cui Security Copilot offre vantaggi a ruoli come CISO, analisti di intelligence sulle minacce, amministratori IT, amministratori della sicurezza dei dati e altro ancora.
Microsoft Security Copilot funziona con altri prodotti Microsoft?
Sì. Security Copilot è integrato e incorporato in altri prodotti Microsoft Security. Questi prodotti includono, ma non sono limitati a:
- Firewall di Azure
- gestione della superficie di attacco Microsoft Defender
- Microsoft Defender for Cloud
- Microsoft Defender Threat Intelligence
- Microsoft Defender XDR
- Microsoft Intune
- Microsoft Purview,
- Microsoft Sentinel
Security Copilot può accedere ai dati di questi prodotti e fornire assistenza genAI e automazione agentic per aumentare l'efficacia e l'efficienza dei professionisti della sicurezza che usano tali soluzioni.
Security Copilot include l'accesso a Microsoft Defender Threat Intelligence (Defender TI)?
Sì*. Quando richiesto, Security Copilot motivi per tutti i contenuti e i dati in Microsoft Defender Threat Intelligence (Defender TI) per restituire un contesto cruciale per gruppi di attività, strumenti e vulnerabilità. I clienti hanno anche accesso a Defender TI Premium workbench a livello di tenant, consentendo loro di accedere all'intera gamma di informazioni di Defender TI - profili Intel, analisi delle minacce, set di dati Internet e altro ancora - per approfondire il contenuto visualizzato in Security Copilot.
*Questo accesso non include l'API TI di Defender, che rimane con licenza separata.
Chi sono gli utenti previsti di Security Copilot?
Gli analisti SOC, gli analisti di conformità, gli amministratori IT, gli amministratori della sicurezza dei dati, gli amministratori delle identità e i CISO sono alcuni degli utenti previsti di Security Copilot. Visitare l'hub di adozione Security Copilot per informazioni sugli scenari principali.
Quali lingue sono supportate?
Security Copilot supporta più lingue. Il modello è disponibile in otto lingue* e l'esperienza utente è disponibile in 25 lingue.**
*Modello: inglese, tedesco, giapponese, spagnolo, francese, italiano, portoghese e cinese
**Esperienza utente: sopra le lingue oltre a coreano, olandese, svedese, polacco, norvegese, turco, danese, finlandese e altro ancora nell'esperienza utente.
Per altre informazioni, vedere Lingue supportate.
Qual è la differenza tra Security Copilot e LLM generico?
Un LLM generico non offre vantaggi principali, ad esempio:
- Elaborazione del segnale in tempo reale con dati di log strutturati, per rilevare e analizzare le minacce man mano che si verificano anziché dopo il fatto.
- Ragionamento investigativo per tracciare l'origine e l'impatto degli eventi imprevisti. L'intelligenza artificiale deve passare attraverso molti punti dati, proprio come farebbero gli analisti umani, e modificare le conclusioni man mano che emergono nuove informazioni.
- Precisione con prove per garantire che l'IA sia accurata e supportata da dati affidabili.
- Raccolta di dati persistente per mantenere una visualizzazione continua e completa.
Senza queste funzionalità e una conoscenza approfondita dell'ambiente di sicurezza specifico, un modello generico semplicemente non può fornire la profondità di analisi necessaria.
Microsoft è in grado di affrontare in modo univoco le sfide legate all'uso dell'intelligenza artificiale nella sicurezza: la soluzione si basa sui modelli più avanzati disponibili e si basa su:
- Un'infrastruttura iperscalabile che offre la scalabilità e l'infrastruttura necessarie per elaborare volumi elevati di dati in tempo reale.
- Un agente di orchestrazione specifico della sicurezza che semplifica, contestualizza e coordina le risposte tra strumenti e team.
- Integrazione senza problemi tramite plug-in, connessione dei sistemi esistenti ed estensione delle operazioni che la soluzione può eseguire.
- Informazioni sulle minacce sempreverdi, informate da 84 trilioni di segnali giornalieri, per una visibilità senza eguali in tutto il panorama delle minacce.
- Formazione e prompt predefiniti sulle competenze informatiche per fornire ai team le conoscenze e le risorse necessarie.
Basandosi su tutti questi componenti, viene fornita una soluzione di sicurezza per intelligenza artificiale che comprende l'ambiente di sicurezza, fornisce informazioni dettagliate nel linguaggio naturale e gestisce i dati sensibili in modo sicuro.
Informazioni di acquisto e fatturazione
Sono presenti prerequisiti per l'acquisto?
Una sottoscrizione di Azure e Microsoft Entra ID (in precedenza noto come Azure Active Directory) sono prerequisiti per l'uso di Security Copilot. Non esistono altri prerequisiti del prodotto. Per altre informazioni, vedere Introduzione a Security Copilot.
Viene distribuito Microsoft Entra ID (in precedenza noto come Azure Active Directory) un requisito per Security Copilot?
Sì. Security Copilot è un'applicazione SaaS e richiede Microsoft Entra ID per autenticare gli utenti che hanno accesso.
Come viene Security Copilot prezzo?
Security Copilot viene valutato in base alle unità di calcolo di sicurezza ( SKU).
- Le SKU di cui è stato effettuato il provisioning supportano carichi di lavoro regolari e vengono fatturate mensilmente.
- Le unità SKU di eccedenza offrono capacità flessibile e su richiesta e vengono fatturate solo se usate.
Usare il dashboard nel prodotto per monitorare l'utilizzo di SCU e modificare la capacità in base alle esigenze.
Per altre informazioni, vedere Microsoft Security Copilot - Prezzi
Security Copilot supporta i trasferimenti di tenant o sottoscrizioni?
No, al momento Security Copilot non supporta lo spostamento di risorse Security Copilot tra tenant Microsoft Entra o trasferimenti di sottoscrizioni.
Le SKU possono essere condivise tra le aree di lavoro Security Copilot di un tenant?
Le unità SKU, con provisioning o eccedenza, non possono essere condivise tra aree di lavoro. Ad esempio, se un'organizzazione ha l'area di lavoro A (1 con provisioning, tre eccedenze) e l'area di lavoro B (2 con provisioning, cinque eccedenze), l'area di lavoro A non può usare le SKU dell'area di lavoro B per impedire la limitazione se esaurisce il proprio totale di 4 UNITÀ SCU. Analogamente, l'area di lavoro B non può usare la capacità SCU dell'area di lavoro A se esaurisce le proprie UNITÀ SCU.
Come è possibile stimare il provisioning SCU e il budget per Security Copilot?
La stima delle esigenze e del budget di SCU dipende dal modo in cui l'organizzazione usa l'intelligenza artificiale generativa nei prodotti Microsoft Security. Usare il calcolatore della capacità SCU per ottenere un punto di partenza in base al numero di utenti e carichi di lavoro in Microsoft Defender, Microsoft Intune, Microsoft Purview, Microsoft Entra e l'esperienza autonoma Security Copilot. Poiché ogni richiesta e flusso di lavoro varia in complessità, il consumo di SCU non viene corretto. Avviare small, sperimentare e perfezionare in base all'utilizzo effettivo. Tenere traccia dell'utilizzo in tempo reale con il dashboard nel prodotto, che consente di monitorare il consumo di SCU e regolare la capacità in base alle esigenze.
Ricerca per categorie interpretare i risultati del calcolatore di capacità SCU?
I risultati mostrano il numero massimo previsto di SKU all'ora, in base al numero di utenti mensili per esperienza e all'inclusione dell'automazione tramite app per la logica e promptbook. Oltre alle SKU massime all'ora, il calcolatore visualizza anche tutte le possibili combinazioni di SKU di cui è stato effettuato il provisioning e l'eccedenza, insieme all'intervallo di costi mensile corrispondente. Il costo mensile più alto viene calcolato in base all'utilizzo continuo della capacità 24 ore su 24, 7 giorni su 7.
Cosa succede se le mie esigenze non sono coperte dal calcolatore di capacità SCU (ad esempio, ho più di 50 utenti Intune).
Per altre informazioni , contattare microsoft o contattare il responsabile dell'account Microsoft.
Quali sono i requisiti minimi di provisioning per le SKU nelle aree di lavoro?
Per usare Microsoft Security Copilot, ogni tenant deve effettuare il provisioning di almeno un SCU. L'SCU con provisioning consente l'accesso ad almeno un'area di lavoro.
- Le SKU di cui è stato effettuato il provisioning sono necessarie per attivare la capacità e vengono fatturate ogni ora.
- Le SKU di eccedenza possono essere impostate da 0 a 999 e fatturate solo se usate.
Informazioni tecniche e sul prodotto
Quali strumenti per i partner sono integrati con Security Copilot?
Microsoft Security Copilot supporta molti plug-in, inclusi i plug-in Microsoft e non Microsoft. Per altre informazioni, vedere Plug-in.
Nota
I prodotti che si integrano con Security Copilot devono essere acquistati separatamente.
Security Copilot offre raccomandazioni per gli scenari IoT/OT?
No, Security Copilot attualmente non supporta IoT/OT.
Security Copilot offre dashboard?
Security Copilot offre un dashboard di utilizzo nel prodotto in cui i clienti possono approfondire il consumo di SCU.
È possibile Security Copilot eseguire flussi di lavoro, dalla valutazione all'uso di messaggi aggiunti, alla gestione del modo in cui il cliente deve etichettare l'evento imprevisto e se un evento imprevisto deve essere chiuso?
Security Copilot fornisce promptbook che sono flussi di lavoro pronti all'uso che possono fungere da modelli per automatizzare i passaggi ripetitivi, ad esempio per quanto riguarda la risposta agli eventi imprevisti o le indagini. Sono inoltre presenti connettori in Security Copilot che rappresentano un wrapper per l'API che consente a sviluppatori e utenti di chiamare la piattaforma Microsoft Security Copilot per eseguire attività specializzate. Ad esempio, il connettore App per la logica consente di chiamare Copilot da un flusso di lavoro di App per la logica di Azure. Analogamente, il connettore Copilot Studio consente di accedere a Security Copilot per eseguire azioni come "inviare un prompt Security Copilot" o "recuperare uno stato di richiesta Security Copilot".
Quali funzionalità di controllo o delega degli accessi in base al ruolo Security Copilot hanno? In che modo le autorizzazioni utente vengono mantenute in Security Copilot allineate alle configurazioni delle autorizzazioni utente in altre soluzioni?
Copilot usa l'autenticazione per conto dell'utente per accedere ai dati correlati alla sicurezza tramite plug-in Microsoft attivi. È necessario assegnare ruoli di Security Copilot specifici affinché un gruppo o un singolo utente possa accedere alla piattaforma Security Copilot. Per altre informazioni, vedere Informazioni sull'autenticazione.
Come si Security Copilot gestire un "limite di token"?
I modelli linguistici di grandi dimensioni, inclusi GPT, hanno limiti sulla quantità di informazioni che possono elaborare contemporaneamente. Questo limite è noto come "limite di token" e corrisponde approssimativamente a 1,2 parole per token. Security Copilot usa i modelli GPT più recenti di Azure OpenAI per garantire che sia possibile elaborare il maggior numero possibile di informazioni in una singola sessione. In alcuni casi, richieste di grandi dimensioni, sessioni lunghe o output dettagliato del plug-in potrebbero sovraccaricare lo spazio del token. Quando si verifica questo scenario, Security Copilot tenta di applicare mitigazioni per garantire che un output sia sempre disponibile, anche se il contenuto in tale output non è ottimale. Queste mitigazioni non sono sempre efficaci e potrebbe essere necessario interrompere l'elaborazione della richiesta e indirizzare l'utente a provare una richiesta o un plug-in diverso.
Che cosa sono gli agenti Security Copilot?
Microsoft Security Copilot agenti migliorano la sicurezza e le operazioni IT con automazione autonoma e adattiva. Gli agenti si integrano facilmente con le soluzioni di sicurezza Microsoft e l'ecosistema di partner di terze parti per gestire attività di sicurezza con volumi elevati. Appositamente creati per la sicurezza, questi agenti imparano dai feedback, si adattano ai flussi di lavoro dell'organizzazione con il team completamente in controllo e operano in modo sicuro all'interno del framework di Zero Trust di Microsoft, accelerando le risposte, assegnando priorità ai rischi e promuovendo l'efficienza. Riducendo i carichi di lavoro manuali, migliorano l'efficacia operativa e rafforzano il comportamento di sicurezza complessivo dell'organizzazione.
Visitare l'hub di adozione per altre informazioni sugli agenti Security Copilot.
Quali risorse di calcolo usano Security Copilot agenti?
Gli agenti usano le SKU per funzionare esattamente come altre funzionalità in Security Copilot. Si integrano perfettamente con le soluzioni di sicurezza Microsoft e il più ampio ecosistema di partner supportato.
Dove è possibile trovare Security Copilot agenti?
È possibile individuare facilmente gli agenti Microsoft Security Copilot dalle esperienze autonome e incorporate.
Per l'esperienza autonoma, è possibile selezionare Vai agli agenti dal banner. È anche possibile passare alla libreria dell'agente dal menu home. Nelle esperienze incorporate verranno visualizzati gli agenti all'interno del portale ed esplorarne le funzionalità.
Per altre informazioni, visitare l'hub di adozione .
Che cosa sono i connettori in Security Copilot?
I connettori in Security Copilot sono un wrapper per l'API che consente agli sviluppatori e agli utenti di chiamare la piattaforma Microsoft Security Copilot per eseguire attività specializzate. Attualmente sono supportati app per la logica e connettori di Copilot Studio. Per altre informazioni, vedere Connettori.
Come funziona il connettore Copilot Studio?
Copilot Studio connettore consente di accedere a Security Copilot durante la creazione di flussi di lavoro di automazione. Usando il connettore Security Copilot, è possibile:
- Inviare una richiesta di Security Copilot: inviare una richiesta in linguaggio naturale per creare una nuova indagine Security Copilot. Al termine, il risultato della valutazione verrà quindi restituito al flusso di lavoro.
- Recuperare uno stato di richiesta di Security Copilot: inviare una richiesta in linguaggio naturale per eseguire il pull dello stato di una valutazione Security Copilot. Al termine, il risultato della valutazione verrà quindi restituito al flusso di lavoro.
Come funziona il connettore app per la logica?
Il connettore Microsoft Security Copilot App per la logica consente di chiamare Copilot da un flusso di lavoro di App per la logica di Azure. Il connettore espone due azioni del connettore:
- Inviare una richiesta di Security Copilot: inviare una richiesta in linguaggio naturale per creare una nuova indagine Security Copilot. Al termine, il risultato della valutazione verrà quindi restituito al flusso di lavoro.
- Inviare un promptbook Security Copilot: dato un promptbook, richiamare una nuova valutazione Security Copilot promptbook e restituire l'output al flusso di lavoro di App per la logica di Azure.
Che cos'è un'area di lavoro Security Copilot?
Nel contesto di Security Copilot, le aree di lavoro consentono ai team di gestire le risorse, ottimizzare i flussi di lavoro e mantenere la conformità ai criteri dell'organizzazione. È anche possibile configurarlo in base alle esigenze specifiche di team e gruppi, inclusi elementi come la designazione dell'accesso, l'assegnazione della capacità, la configurazione di plug-in specifici, la distribuzione di agenti e l'aggiunta di promptbook per personalizzare l'esperienza in base ai requisiti univoci di ogni team o gruppo.
Le aree di lavoro offrono un modo flessibile per segmentare gli ambienti, semplificando l'allineamento dell'accesso e della capacità alle esigenze dell'organizzazione, alle strutture legali o ai requisiti di conformità. Per altre informazioni, vedere Panoramica delle aree di lavoro.
Informazioni sulla privacy e sui dati
I dati dei clienti vengono usati per eseguire il training dei modelli di base del servizio Azure OpenAI?
No, i dati dei clienti non vengono usati per eseguire il training dei modelli di base del servizio Azure OpenAI e questo impegno è documentato nelle condizioni del prodotto. Per altre informazioni sulla condivisione dei dati nel contesto di Security Copilot, vedere Privacy e sicurezza dei dati.
Quali sono le linee guida del GDPR per i mercati dell'UE?
Microsoft è conforme a tutte le leggi e le normative applicabili alla fornitura dei prodotti e del servizio, tra cui la legge sulla notifica delle violazioni della sicurezza e i requisiti di protezione dei dati (come definito in Microsoft DPA). Tuttavia, Microsoft non è responsabile della conformità alle leggi o alle normative applicabili al cliente o al settore del cliente che non sono generalmente applicabili ai provider di servizi informatici. Microsoft non determina se i dati del cliente includono informazioni soggette a leggi o normative specifiche. Per altre informazioni, vedere Microsoft Products and Services Data Protection Addendum (DPA) .For more information, see Microsoft Products and Services Data Protection Addendum (DPA).For more information, see Microsoft Products and Services Data Protection Addendum (DPA).
I clienti di US Government Cloud (GCC) sono idonei?
Attualmente, Security Copilot non è progettato per l'uso da parte dei clienti che usano cloud per enti pubblici degli Stati Uniti, tra cui GCC, GCC High, DoD e Microsoft Azure per enti pubblici. Per altre informazioni, vedere con il rappresentante Microsoft.
I clienti dell'assistenza sanitaria negli Stati Uniti e in Canada sono idonei?
I clienti HLS di Stati Uniti e Canada possono acquistare Security Copilot. Microsoft Security Copilot è ora elencato e coperto dal Contratto di associazione di business ("BAA"), importante per gli operatori sanitari soggetti alle normative ai sensi dell'HIPAA. Per altre informazioni sulle offerte di conformità attualmente coperte per Microsoft Security Copilot sono disponibili nel portale di attendibilità dei servizi.
Ricerca per categorie esportare o eliminare dati da Security Copilot?
Sarà necessario contattare il supporto tecnico. Per altre informazioni, vedere Contattare il supporto tecnico.
Dove è possibile trovare altre informazioni sulla protezione e la privacy dei dati?
Altre informazioni sono disponibili nel Centro protezione Microsoft.
Il codice di comportamento del servizio Azure OpenAI include "Requisiti di mitigazione dell'intelligenza artificiale responsabile". Come si applicano questi requisiti ai clienti Security Copilot?
Questi requisiti non si applicano ai clienti Security Copilot perché Security Copilot implementa queste mitigazioni.
Perché Microsoft Copilot trasferisce i dati a un tenant Microsoft?
Microsoft Copilot è un'offerta SaaS (Software as a Service) eseguita nel tenant di produzione di Azure. Gli utenti immettono richieste e Security Copilot fornisce risposte in base alle informazioni dettagliate provenienti da altri prodotti, ad esempio Microsoft Defender XDR, Microsoft Sentinel e Microsoft Intune. Security Copilot archivia le richieste e le risposte precedenti per un utente. L'utente può usare l'esperienza nel prodotto per accedere a richieste e risposte. I dati di un cliente sono logicamente isolati dai dati di altri clienti. Questi dati non lasciano il tenant di produzione di Azure e vengono archiviati fino a quando i clienti non chiedono di eliminarli o di uscire dal prodotto.
Come vengono protetti i dati trasferiti in transito e inattivi?
I dati vengono crittografati sia in transito che inattivi, come descritto nell'addendum Microsoft Products and Services Data Protection.
Come vengono protetti i dati trasferiti da accessi non autorizzati e quali test sono stati eseguiti per questo scenario?
Per impostazione predefinita, nessun utente umano ha accesso al database e l'accesso alla rete è limitato alla rete privata in cui viene distribuita l'applicazione Microsoft Copilot. Se un utente ha bisogno dell'accesso per rispondere a un evento imprevisto, il tecnico di chiamata necessita di accesso elevato e di accesso alla rete approvato dai dipendenti Microsoft autorizzati.
Oltre ai normali test di funzionalità, Microsoft ha completato anche i test di penetrazione. Microsoft Security Copilot è conforme a tutti i requisiti microsoft in materia di privacy, sicurezza e conformità.
In "Sessioni personali" quando viene eliminata una singola sessione, cosa accade ai dati della sessione?
I dati della sessione vengono archiviati a scopo di runtime (per gestire il servizio) e anche nei log. Nel database di runtime, quando una sessione viene eliminata tramite l'esperienza utente nel prodotto, tutti i dati associati a tale sessione vengono contrassegnati come eliminati e il tempo di vita (TTL) è impostato su 30 giorni. Dopo la scadenza del TTL, le query non possono accedere a tali dati. Un processo in background elimina fisicamente i dati dopo tale periodo di tempo. Oltre al database di runtime "live", sono presenti backup periodici del database. I backup scadranno, con periodi di conservazione di breve durata (attualmente impostati su quattro giorni).
I log che contengono dati di sessione non sono interessati quando una sessione viene eliminata tramite l'esperienza utente nel prodotto. Questi log hanno un periodo di conservazione fino a 90 giorni.
Quali condizioni del prodotto si applicano a Security Copilot? Security Copilot è un "servizio di intelligenza artificiale generativa Microsoft" ai sensi delle Condizioni per il prodotto Microsoft?
Le condizioni del prodotto seguenti regolano Security Copilot clienti:
Condizioni di licenza universali per i servizi online nelle Condizioni del prodotto, che includono le condizioni di Microsoft Generative AI Services e l'impegno per il copyright del cliente.
Privacy & Termini di sicurezza nelle Condizioni del prodotto Microsoft, che includono l'addendum per la protezione dei dati.
Security Copilot è un servizio di intelligenza artificiale generativa all'interno della definizione delle Condizioni del prodotto. Inoltre, Security Copilot è un "Prodotto coperto" ai fini dell'impegno per il copyright del cliente. Al momento, nelle Condizioni del prodotto non sono presenti termini specifici del prodotto univoci per Security Copilot.
Oltre alle Condizioni del prodotto, i contratti MBSA/EA e MCA dei clienti, ad esempio, regolano la relazione delle parti. Se un cliente ha domande specifiche sui propri contratti con Microsoft, rivolgersi al ce, al gestore delle trattative o al cela locale che supporta l'accordo.
Qual è il Impegno relativo al copyright di Microsoft Copilot?
Microsoft Customer Copyright Commitment è un nuovo impegno che estende il supporto dell'indennità di proprietà intellettuale esistente di Microsoft a determinati servizi Copilot commerciali. L'impegno per il copyright del cliente si applica a Security Copilot. Se una terza parte fa causa a un cliente commerciale per violazione del copyright per l'uso di Copilot di Microsoft o dell'output generato, Microsoft difenderà il cliente e pagherà l'importo di eventuali sentenze o liquidazioni negative risultanti dalla causa, a condizione che il cliente abbia usato le guardrail e i filtri dei contenuti integrati nei nostri prodotti.
I clienti Security Copilot possono rifiutare esplicitamente il monitoraggio degli abusi del servizio Azure OpenAI? Il Security Copilot si impegna in un filtro dei contenuti o in un monitoraggio degli abusi?
Il monitoraggio degli abusi di Azure OpenAI è attualmente disabilitato a livello di servizio per tutti i clienti.
Il Security Copilot esegue un'eventuale posizione degli impegni di trattamento dei dati o di residenza dei dati?
Per altre informazioni sulla posizione e l'elaborazione dell'archiviazione dei dati dei clienti, vedere Privacy e sicurezza dei dati.
È Security Copilot un servizio Microsoft EU Data Boundary?
Al momento della disponibilità generale, tutti i servizi di sicurezza Microsoft non rientrano nell'ambito dei requisiti di residenza dei dati dell'UE e Security Copilot non verranno elencati come servizio EUDB.
Dove vengono archiviati i dati dei clienti dell'UE?
Security Copilot archivia i dati dei clienti e i dati personali, ad esempio le richieste degli utenti e gli ID oggetto Microsoft Entra nell'area geografica del tenant. Se un cliente effettua il provisioning del tenant nell'UE e non ha acconsentito esplicitamente alla condivisione dei dati, tutti i dati dei clienti e i dati personali pseudonimi vengono archiviati inattivi all'interno dell'UE. L'elaborazione dei dati dei clienti e delle richieste di dati personali può avvenire nell'area geografica GPU di sicurezza designata. Per altre informazioni sulla selezione geografica della GPU di sicurezza, vedere Introduzione a Security Copilot. Se un cliente ha acconsentito esplicitamente alla condivisione dei dati, le richieste possono essere archiviate al di fuori del limite dei dati dell'UE. Per altre informazioni sulla condivisione dei dati, vedere Privacy e sicurezza dei dati.
Le richieste dei clienti (ad esempio il contenuto di input del cliente) vengono considerate dati dei clienti entro i termini del DPA e delle condizioni del prodotto?
Sì, le richieste dei clienti vengono considerate dati del cliente. In Termini di prodotto, le richieste dei clienti vengono considerate input. Gli input sono definiti come "tutti i dati del cliente che il cliente fornisce, designa, seleziona o input per l'uso da parte di una tecnologia di intelligenza artificiale generativa per generare o personalizzare un output".
Il "contenuto di output" è considerato come dati del cliente entro i termini del DPA e delle condizioni del prodotto?
Sì, il contenuto di output è dato dai clienti in base alle condizioni del prodotto.
È disponibile una nota sulla trasparenza o una documentazione sulla trasparenza per Security Copilot?
Sì, il documento Sulla trasparenza dell'intelligenza artificiale responsabile è disponibile qui: Domande frequenti sull'intelligenza artificiale responsabile.
Quali sono le offerte di conformità per Microsoft Security Copilot?
Microsoft Security Copilot è dedicata a sostenere i più elevati standard di sicurezza, privacy ed eccellenza operativa, come dimostrato dalla sua vasta gamma di certificazioni del settore. Questi includono ISO 27001 per la gestione della sicurezza delle informazioni, ISO 27018 per la protezione dei dati personali nel cloud, ISO 27017 per i controlli di sicurezza specifici del cloud e ISO 27701 per la gestione delle informazioni sulla privacy.
Inoltre, Security Copilot ha certificazioni per ISO 20000-1 nella gestione dei servizi IT, ISO 9001 nella gestione della qualità e ISO 22301 nella gestione della continuità aziendale. È inoltre conforme ai requisiti SOC2 per la sicurezza, la disponibilità e la riservatezza, sottolineando il nostro impegno a fornire servizi sicuri e affidabili. Per i servizi correlati all'assistenza sanitaria, Security Copilot è certificato nel quadro di HiTrust CSF, migliorando ulteriormente la sua posizione di sicurezza e conformità, ed è coperto da HIPAA Business Associate Agreement (BAA), garantendo il rispetto delle normative sanitarie e la protezione delle informazioni sanitarie sensibili.
Per altre informazioni sulle offerte di conformità attualmente coperte per Microsoft Security Copilot vedere service trust portal.For more information on compliance offerings currently covered for Microsoft Security Copilot see, the Service Trust Portal.
Informazioni sui partner
Quali sono i casi d'uso per i partner?
I partner possono fornire segnali o creare soluzioni complementari in base agli scenari Security Copilot.
Se un cliente lavora con un provider di servizi di sicurezza gestito, può il provider di servizi di sicurezza mssp usare e gestire Security Copilot per conto del cliente?
Sì, gli PROVIDER che forniscono servizi SOC per i clienti possono accedere all'ambiente Security Copilot del cliente se il cliente sceglie di fornire l'accesso. Le opzioni disponibili includono:
- Azure Lighthouse
- Collaborazione B2B/Account guest
- Privilegi Amministrazione delegati granulari (GDAP)
Attualmente non è disponibile un modello multi-tenant CSP o reseller per i provider di servizi condivisi. Ogni cliente è responsabile dell'acquisto delle proprie SKU e della configurazione dei propri provider di servizi di sicurezza con l'accesso necessario se accede all'interno del tenant del cliente. Se l'accesso delegato di Azure Lighthouse viene fornito alle aree di lavoro Microsoft Sentinel del cliente, il partner può usare le SKU del piano di capacità del partner per eseguire richieste sui dati dell'area di lavoro Microsoft Sentinel del cliente.
Se un provider di servizi condivisi del servizio gestito richiede al tenant di un cliente, usando Azure Lighthouse, mssp userà le proprie SKU o le SKU del cliente?
Azure Lighthouse consente ai partner di ottenere Security Copilot autorizzazioni per le aree di lavoro Microsoft Sentinel del cliente e altre risorse di Azure supportate. Il piano di capacità usato è il piano di capacità del tenant partner.
I provider di servizi cloud possono usare una singola istanza di Security Copilot per gestire più tenant?
Azure Lighthouse è supportato per richiamare le competenze basate su Sentinel dal tenant partner rispetto all'area di lavoro Microsoft Sentinel di un singolo cliente in un momento in cui al partner è stato fornito l'accesso delegato tramite Azure Lighthouse. Il tenant partner sfrutterà le proprie SKU per eseguire Security Copilot richiamate Microsoft Sentinel competenze rispetto al tenant del cliente senza la necessità di effettuare il provisioning del tenant del cliente per Security Copilot o di avere SCU proprie.
Sono attualmente disponibili integrazioni di terze parti?
Microsoft Security Copilot supporta molti plug-in, inclusi i plug-in Microsoft e non Microsoft. Per altre informazioni, vedere Panoramica dei plug-in non Microsoft. Inoltre, sono disponibili agenti dei nostri partner in Security Copilot. Per altre informazioni, vedere Agenti partner.
Nota
I prodotti che si integrano con Security Copilot devono essere acquistati separatamente.
Esiste un marketplace per i plug-in o i servizi?
Non esiste un marketplace di plug-in. Gli ISV possono pubblicare le proprie soluzioni in GitHub. Tutti i partner sono tenuti a pubblicare le proprie soluzioni o servizi gestiti nel marketplace commerciale Microsoft. Per altre informazioni sulla pubblicazione nel marketplace, vedere:
Pubblicare una soluzione in Microsoft Commercial Marketplace:
- Creare un account marketplace commerciale nel Centro per i partner - Centro per i partner
- Come gestire una presentazione nel Centro per i partner
Specifica di MSSP: Deve avere una designazione di sicurezza in Microsoft AI Cloud Partner Program.
SaaS specifico:
- Pianificare un'offerta SaaS per il marketplace commerciale Microsoft - Marketplace Publisher
- Creare un'offerta SaaS nel marketplace commerciale - Marketplace Publisher
- Panoramica del programma isv success
- Compilare e pubblicare con successo ISV - Centro per i partner
Cosa accade se i provider di servizi cloud non usano Microsoft Defender XDR o Microsoft Sentinel?
Microsoft Security Copilot non dispone di alcun requisito specifico del prodotto di sicurezza Microsoft per il provisioning o l'uso, poiché la soluzione è basata sull'aggregazione di origini dati da servizi Microsoft e di terze parti. Detto questo, c'è un valore significativo nell'avere Microsoft Defender XDR e Microsoft Sentinel abilitati come plug-in supportati per arricchire le indagini. Security Copilot usa solo competenze e accede ai dati dai plug-in abilitati.
Una soluzione SOC MSSPs deve essere ospitata in Azure?
È consigliabile che la soluzione sia ospitata in Azure ma non necessaria.
Esiste una roadmap del prodotto che può essere condivisa con i partner?
Al momento no.