Condividi tramite


Domande frequenti su Microsoft Copilot per la sicurezza

Informazioni generali

Che cos'è Microsoft Copilot per la sicurezza?

Microsoft Copilot per la sicurezza è un prodotto di cybersecurity per intelligenza artificiale che consente ai professionisti della sicurezza di rispondere rapidamente alle minacce, elaborare i segnali alla velocità della macchina e valutare l'esposizione ai rischi in pochi minuti. 

In che modo Microsoft Copilot per la sicurezza è diverso dagli altri prodotti di sicurezza per intelligenza artificiale?

Copilot for Security combina modelli GPT4 avanzati di OpenAI con tutto ciò che Microsoft offre, tra cui l'infrastruttura iperscalabilità, l'orchestrazione specifica del cyber, l'esperienza unica di Microsoft Security, l'intelligence globale sulle minacce e i prodotti di sicurezza completi.

È attualmente l'unica soluzione di intelligenza artificiale di sicurezza creata usando la relazione univoca di Microsoft con OpenAI, che consente ai clienti di accedere ai modelli di linguaggio di grandi dimensioni più recenti e avanzati e all'infrastruttura di intelligenza artificiale iperscalabilità di Microsoft.

Microsoft si trova in una posizione unica per trasformare la sicurezza per i clienti, non solo a causa dei nostri investimenti nell'IA, ma anche perché offriamo sicurezza end-to-end, identità, conformità e molto altro ancora nel nostro portfolio. Siamo ottimizzati per coprire più vettori di minacce e offrire valore con un'esperienza coordinata.

Quali sono i casi d'uso e le funzionalità sbloccate da Copilot per la sicurezza per i clienti?

I casi d'uso principali sono scenari SOC, in particolare per quanto riguarda il riepilogo degli eventi imprevisti, l'analisi dell'impatto, il reverse engineering degli script e le risposte guidate.

Microsoft Copilot per la sicurezza funziona con altri prodotti Microsoft?

Sì. Copilot for Security funziona con altri prodotti Microsoft Security. Questi prodotti includono, ma non sono limitati a:

  • Microsoft Defender XDR,
  • Microsoft Sentinel,
  • Microsoft Intune,
  • Microsoft Defender Threat Intelligence,
  • Microsoft Purview
  • Gestione superficie di attacco di Microsoft Defender

Copilot for Security può accedere ai dati di questi prodotti e offrire un'esperienza di assistive Copilot per aumentare l'efficacia e l'efficienza dei professionisti della sicurezza che usano tali soluzioni. Ad esempio, funzionalità come l'analisi degli script consentono ai clienti di analizzare centinaia di righe di codice e interpretarle tramite il linguaggio naturale in pochi minuti. Questa funzionalità supera drasticamente anche le competenze avanzate degli analisti in termini di velocità e competenza. Copilot per la sicurezza aiuta i professionisti della sicurezza a individuare i rischi in precedenza, a rispondere con indicazioni più dettagliate e a rimanere in cima alle vulnerabilità nel panorama delle minacce in continua evoluzione.

In che modo Copilot per la sicurezza migliora Microsoft Defender XDR e Microsoft Sentinel?

Microsoft Defender XDR e Microsoft Sentinel diventano ancora più potenti quando i professionisti della sicurezza usano Copilot per la sicurezza. Copilot for Security offre un'esperienza che arricchisce e si basa sui dati di sicurezza, i segnali e gli eventi imprevisti esistenti e le informazioni dettagliate provenienti da Microsoft Defender XDR e Microsoft Sentinel. La nuova esperienza incorporata in Microsoft Defender XDR potenzia i team di sicurezza con funzionalità generative di intelligenza artificiale per portare la loro efficienza a un nuovo livello per il set di casi d'uso potenti seguenti:

  • Rispondere alle minacce alla velocità dell'intelligenza artificiale con l'indagine e la risposta agli eventi imprevisti assistiti. Con l'esperienza incorporata in Defender, Copilot for Security fornisce riepiloghi per gli eventi imprevisti attivi e indicazioni dettagliate per la risposta agli eventi imprevisti, creando un'attività post-risposta completa, tutto in secondi e con il clic di un pulsante.

  • Ridimensionare le attività avanzate a tutti i livelli di competenza. Copilot for Security consente ai difensori a tutti i livelli di competenza di individuare facilmente minacce e vulnerabilità in più vettori di minacce. La soluzione spiega in tempo reale i dati di sicurezza e offre un modo accessibile per eseguire attività avanzate usando il linguaggio naturale.

  • Eseguire l'analisi del codice dannoso in tempo reale. In precedenza, l'analisi del malware e il reverse engineering erano limitati ai risponditori avanzati. Con Copilot per la sicurezza, i clienti possono analizzare script da riga di comando complessi e tradurli in un linguaggio naturale facilmente comprensibile per aiutare gli analisti a comprendere le azioni e le motivazioni degli utenti malintenzionati.

  • Applicare l'intelligence sulle minacce ai flussi di lavoro di indagine con facilità. Con Copilot per la sicurezza, gli utenti possono ottenere informazioni strutturate e contestualizzate sulle minacce emergenti, sulle tecniche di attacco e sul fatto che un'organizzazione sia esposta a una minaccia specifica. Copilot for Security consente di evitare l'esposizione alle campagne del gruppo di attività e di rispondere agli eventi imprevisti con indicazioni più dettagliate.

Copilot for Security sostituisce Microsoft Defender XDR e Microsoft Sentinel?

No, Copilot per la sicurezza non sostituisce Microsoft Defender XDR o Microsoft Sentinel. Copilot for Security assiste i professionisti della sicurezza nel loro lavoro quotidiano, offrendo un'esperienza di miglioramento e una maggiore efficienza. Aggiunge un valore maggiore rispetto a Microsoft Defender XDR e Microsoft Sentinel.

Copilot for Security include l'accesso a Microsoft Defender Threat Intelligence (Defender TI)?

Sì*. Quando richiesto, Copilot per motivi di sicurezza su tutti i contenuti e i dati in Microsoft Defender Threat Intelligence (Defender TI) restituisce un contesto cruciale per gruppi di attività, strumenti e vulnerabilità. I clienti hanno anche accesso a Defender TI Premium workbench a livello di tenant, consentendo loro di accedere all'intera gamma di informazioni di Defender TI - profili Intel, analisi delle minacce, set di dati Internet e altro ancora - per approfondire il contenuto visualizzato in Copilot per la sicurezza.

*Questo accesso non include l'API TI di Defender, che rimane con licenza separata.

Quando copilot per la sicurezza è disponibile a livello generale?

Copilot for Security sarà disponibile a livello generale per l'acquisto il 1° aprile 2024.

Chi sono gli utenti previsti di Copilot per la sicurezza?

Gli analisti SOC, gli analisti di conformità e gli amministratori IT sono gli utenti previsti di Copilot per la sicurezza.

Quali lingue sono supportate?

Copilot for Security supporta più lingue. Il modello è disponibile in otto lingue* e l'esperienza utente è disponibile in 25 lingue.**

*Modello: inglese, tedesco, giapponese, spagnolo, francese, italiano, portoghese e cinese

**Esperienza utente: sopra le lingue oltre a coreano, olandese, svedese, polacco, norvegese, turco, danese, finlandese e altro ancora nell'esperienza utente.

Per altre informazioni, vedere Lingue supportate.

I clienti del Programma di accesso anticipato (EAP) riceveranno le funzionalità di disponibilità generale il 1° aprile e tutte le altre funzionalità aggiunte prima della fine del contratto EAP?

Sì, i clienti EAP riceveranno le funzionalità presenti nel prodotto ga e tutti gli altri aggiornamenti delle funzionalità che si verificano durante il periodo del contratto EAP.

Cosa accade ai clienti che partecipano al programma di accesso anticipato in disponibilità generale?

L'accesso dei clienti nell'ambito del programma di accesso anticipato terminerà sei mesi dopo la data di acquisto. Durante questo periodo si applicano le condizioni contrattuali applicabili all'uso e al consumo del prodotto da parte dei clienti nell'ambito del Programma di accesso anticipato. Dopo questo periodo di tempo e dopo la disponibilità generale, Copilot of Security sarà disponibile per l'acquisto e l'utilizzo nei canali di contratto standard di Microsoft. È in atto un piano di migrazione per supportare i clienti che eseguono la migrazione da EAP a GA per garantire che tutte le informazioni vengano trasferite al prodotto a disponibilità generale.

Quando un cliente EAP decide di acquistare il prodotto ga entro 90 giorni dalla scadenza di EAP, i dati del cliente rimarranno disponibili.

Se un cliente EAP decide di non acquistare il prodotto ga entro 90 giorni dalla scadenza di EAP, i dati del cliente EAP vengono eliminati in base ai criteri di conservazione dei dati.

I dati dei clienti vengono usati per eseguire il training dei modelli di base del servizio Azure OpenAI?

No, i dati dei clienti non vengono usati per eseguire il training dei modelli di base del servizio Azure OpenAI e questo impegno è documentato nelle condizioni del prodotto. Per altre informazioni sulla condivisione dei dati nel contesto di Copilot per la sicurezza, vedere Privacy e sicurezza dei dati.

Quali sono le linee guida del GDPR per i mercati dell'UE?

Microsoft è conforme a tutte le leggi e le normative applicabili alla fornitura dei prodotti e del servizio, tra cui la legge sulla notifica delle violazioni della sicurezza e i requisiti di protezione dei dati (come definito in Microsoft DPA). Tuttavia, Microsoft non è responsabile della conformità alle leggi o alle normative applicabili al cliente o al settore del cliente che non sono generalmente applicabili ai provider di servizi informatici. Microsoft non determina se i dati del cliente includono informazioni soggette a leggi o normative specifiche. Per altre informazioni, vedere Microsoft Products and Services Data Protection Addendum (DPA) .For more information, see Microsoft Products and Services Data Protection Addendum (DPA).For more information, see Microsoft Products and Services Data Protection Addendum (DPA).

I clienti di US Government Cloud (GCC) sono idonei?

GCC non è disponibile in disponibilità generale. Attualmente Copilot per la sicurezza non è progettato per l'utilizzo da parte dei clienti con i cloud del governo degli Stati Uniti, tra cui GCC, GCC High, DoD e Microsoft Azure Per enti pubblici. Mentre il percorso tecnico per il connettore Microsoft Sentinel funziona, il tenant non è in grado di accedere al 75% delle funzionalità del prodotto perché le interfacce e i dati di Defender risiedono all'interno di Microsoft Azure per enti pubblici, in cui Copilot non è integrato.

I clienti dell'assistenza sanitaria negli Stati Uniti e in Canada sono idonei?

I clienti HLS di Stati Uniti e Canada sono idonei per l'acquisto di Copilot per la sicurezza. Copilot per la sicurezza, tuttavia, non è attualmente un servizio microsoft BAA-Scope.

Qual è la differenza tra ChatGPT e Copilot per la sicurezza?

ChatGPT e Copilot for Security sono entrambe tecnologie di intelligenza artificiale (IA) sviluppate con l'intento di aiutare gli utenti a svolgere attività e attività in modo più rapido ed efficiente. Anche se potrebbero sembrare simili, esistono differenze significative tra i due.

ChatGPT è una tecnologia di elaborazione del linguaggio naturale. ChatGPT usa machine learning, deep learning, comprensione del linguaggio naturale e generazione del linguaggio naturale per rispondere alle domande o rispondere alle conversazioni. ChatGPT elimina i dati sottoposti a training da Internet, usa le richieste degli utenti per facilitare la progettazione rapida e la regolazione del modello ed è limitato a tre plug-in simultanei.

Copilot for Security è uno strumento di analisi della sicurezza basato su intelligenza artificiale e linguaggio naturale progettato per aiutare le organizzazioni a difendersi dalle minacce a velocità e scalabilità di computer. Copilot for Security si basa sulla tecnologia OpenAI ed è progettato e progettato come intelligenza artificiale informatica aziendale da zero. La piattaforma funziona al di fuori dei plug-in connessi ai clienti e dell'intelligence globale sulle minacce di Microsoft come dati di base. Le richieste immesse non informano il modello o la progettazione delle richieste, a meno che non siano state inviate dal cliente per la revisione.

Una differenza fondamentale tra ChatGPT e Copilot per la sicurezza è ciò che i sistemi sono progettati per realizzare. Microsoft Copilot per la sicurezza è progettato per la gestione della postura, la risposta agli eventi imprevisti e la creazione di report. La soluzione trae informazioni dettagliate dai segnali di sicurezza aggregati dai plug-in, mentre ChatGPT funziona come un chatbot progettato per tenere una conversazione con un utente.

Copilot for Security ha accesso a informazioni aggiornate dall'intelligence sulle minacce e trae informazioni dettagliate dai plug-in in modo che i professionisti della sicurezza siano meglio preparati a difendersi dalle minacce. Microsoft Copilot per la sicurezza non sempre ottiene tutto a posto e, come con tutti gli strumenti di intelligenza artificiale, le risposte possono contenere errori. Il meccanismo di feedback predefinito fornisce agli utenti il controllo per migliorare il sistema.

Informazioni sull'acquisto

In che modo i clienti possono acquistare a livello generale?

Copilot for Security è disponibile in tutti i canali: EA, MCA-E, CSP, Buy Online e Legacy Web Direct.

Sono presenti prerequisiti per l'acquisto?

Una sottoscrizione di Azure e l'ID Microsoft Entra (in precedenza noto come Azure Active Directory) sono prerequisiti per l'uso di Copilot per la sicurezza; non sono presenti altri prerequisiti del prodotto. Per altre informazioni, vedere Introduzione a Copilot per la sicurezza.

Domande tecniche e di prodotto

I clienti ricevono il supporto per l'onboarding?

Al momento dell'acquisto, i clienti ricevono un facile accesso a documentazione, video e blog.

Dove è possibile trovare altre informazioni sulla protezione e la privacy dei dati?

Altre informazioni sono disponibili nel Centro protezione Microsoft.

È stato distribuito Microsoft Entra ID (in precedenza noto come Azure Active Directory) un requisito per Copilot per la sicurezza?

Sì. Copilot for Security è un'applicazione SaaS e richiede AAD per autenticare gli utenti che hanno accesso.

L'integrazione di Defender per XDR e Sentinel copre solo i dati archiviati o solo gli avvisi e gli eventi imprevisti (eventi rilevanti)?

Copilot for Security copre sia gli avvisi/eventi imprevisti che i dati archiviati. Il prodotto recupera i dati dalle tabelle di ricerca avanzate in Defender per XDR e dalle principali tabelle dati in Microsoft Sentinel.

Quali strumenti per i partner sono integrati con Copilot per la sicurezza?

I clienti possono usare plug-in di terze parti sviluppati da ISV, ad esempio Cyware, Netskope SGNL, Tanium e Valence Security nella capacità di anteprima pubblica. Microsoft ha sviluppato plug-in di terze parti come CIRC.lu, CrowdSec, Greynoise e URLScan. Altri plug-in verranno aggiunti in futuro.

Nota

I prodotti che si integrano con Copilot for Security devono essere acquistati separatamente.

Copilot for Security può isolare i computer usando Microsoft Defender per endpoint e Microsoft Intune? È possibile personalizzare e/o bloccare singoli ioc?

Copilot for Security non può isolare i computer. Può fornire consigli agli amministratori della sicurezza che devono isolare determinati computer, ma Copilot per la sicurezza non esegue l'azione stessa. È possibile valutare se i singoli ioc sono presenti nell'ambiente usando Copilot per la sicurezza. Copilot per la sicurezza, tuttavia, non li blocca automaticamente. L'automazione può avvenire in un secondo momento, ma per il momento Copilot per la sicurezza non esegue azioni correttive autonomamente.

Copilot per la sicurezza IPv6 è a conoscenza?

È disponibile una funzionalità denominata Get Web Components by IP Address che attualmente supporta IPV4.

Copilot per la sicurezza offre raccomandazioni per gli scenari IoT/OT?

No, Copilot per la sicurezza attualmente non supporta IoT/OT.

Copilot for Security offre dashboard o è possibile analizzare solo singoli eventi?

Copilot for Security non fornisce dashboard, tuttavia è possibile eseguire query su più eventi imprevisti in Microsoft Sentinel. Per la linea di base, può fornire una visualizzazione di un percorso di attacco.

Copilot per la sicurezza può eseguire flussi di lavoro, dalla valutazione all'uso di messaggi aggiunti, alla gestione del modo in cui il cliente deve etichettare l'evento imprevisto e se un evento imprevisto deve essere chiuso?

No, i flussi di lavoro non sono attualmente supportati in Copilot per la sicurezza.

Quali funzionalità di controllo o delega degli accessi in base al ruolo hanno Copilot per la sicurezza? Come vengono mantenute le autorizzazioni utente in Copilot for Security allineate alle configurazioni delle autorizzazioni utente in altre soluzioni?

Copilot for Security usa i diritti "admin per conto di" (AOBO) per l'utente connesso. Per altre informazioni, vedere Informazioni sull'autenticazione.

Perché Microsoft Copilot trasferisce i dati a un tenant Microsoft?

Microsoft Copilot è un'offerta SaaS (Software as a Service) eseguita nel tenant di produzione di Azure. Gli utenti immettono richieste e Copilot for Security fornisce risposte basate sulle informazioni dettagliate provenienti da altri prodotti, ad esempio Microsoft Defender XDR, Microsoft Sentinel e Microsoft Intune. Copilot for Security archivia le richieste e le risposte precedenti per un utente. L'utente può usare l'esperienza nel prodotto per accedere a richieste e risposte. I dati di un cliente sono logicamente isolati dai dati di altri clienti. Questi dati non lasciano il tenant di produzione di Azure e vengono archiviati fino a quando i clienti non chiedono di eliminarli o di uscire dal prodotto.

Come vengono protetti i dati trasferiti in transito e inattivi?

I dati vengono crittografati sia in transito che inattivi, come descritto nell'addendum Microsoft Products and Services Data Protection.

Come vengono protetti i dati trasferiti da accessi non autorizzati e quali test sono stati eseguiti per questo scenario?

Per impostazione predefinita, nessun utente umano ha accesso al database e l'accesso alla rete è limitato alla rete privata in cui viene distribuita l'applicazione Microsoft Copilot. Se un utente ha bisogno dell'accesso per rispondere a un evento imprevisto, il tecnico di chiamata necessita di accesso elevato e di accesso alla rete approvato dai dipendenti Microsoft autorizzati.

Oltre ai normali test di funzionalità, Microsoft ha completato anche i test di penetrazione. Microsoft Copilot per la sicurezza è conforme a tutti i requisiti microsoft in materia di privacy, sicurezza e conformità.

In "Sessioni personali" quando viene eliminata una singola sessione, cosa accade ai dati della sessione?

I dati della sessione vengono archiviati a scopo di runtime (per gestire il servizio) e anche nei log. Nel database di runtime, quando una sessione viene eliminata tramite l'esperienza utente nel prodotto, tutti i dati associati a tale sessione vengono contrassegnati come eliminati e il tempo di vita (TTL) è impostato su 30 giorni. Dopo la scadenza del TTL, le query non possono accedere a tali dati. Un processo in background elimina fisicamente i dati dopo tale periodo di tempo. Oltre al database di runtime "live", sono presenti backup periodici del database. I backup scadranno, con periodi di conservazione di breve durata (attualmente impostati su quattro giorni).

I log che contengono dati di sessione non sono interessati quando una sessione viene eliminata tramite l'esperienza utente nel prodotto. Questi log hanno un periodo di conservazione fino a 90 giorni.

Quali condizioni del prodotto si applicano a Copilot per la sicurezza? Copilot per la sicurezza è un "servizio di intelligenza artificiale generativa Microsoft" ai sensi delle Condizioni del prodotto Microsoft?

Le condizioni del prodotto seguenti regolano i clienti copilot per la sicurezza:

  • Condizioni di licenza universali per i servizi online nelle Condizioni del prodotto, che includono le condizioni di Microsoft Generative AI Services e l'impegno per il copyright del cliente.

  • Privacy & Termini di sicurezza nelle Condizioni del prodotto Microsoft, che includono l'addendum per la protezione dei dati.

Copilot for Security è un servizio di intelligenza artificiale generativa all'interno della definizione delle Condizioni del prodotto. Copilot for Security è anche un "Prodotto coperto" ai fini dell'impegno del cliente sul copyright. Al momento, nelle Condizioni del prodotto non sono presenti termini specifici del prodotto univoci per Copilot per la sicurezza.

Oltre alle Condizioni del prodotto, i contratti MBSA/EA e MCA dei clienti, ad esempio, regolano la relazione delle parti. Se un cliente ha domande specifiche sui propri contratti con Microsoft, rivolgersi al ce, al gestore delle trattative o al cela locale che supporta l'accordo.

Microsoft Customer Copyright Commitment è un nuovo impegno che estende il supporto dell'indennità di proprietà intellettuale esistente di Microsoft a determinati servizi Copilot commerciali. L'impegno per il copyright del cliente si applica a Copilot per la sicurezza. Se una terza parte fa causa a un cliente commerciale per violazione del copyright per l'uso di Copilot di Microsoft o dell'output generato, Microsoft difenderà il cliente e pagherà l'importo di eventuali sentenze o liquidazioni negative risultanti dalla causa, a condizione che il cliente abbia usato le guardrail e i filtri dei contenuti integrati nei nostri prodotti.

I clienti di Copilot for Security possono rifiutare esplicitamente il monitoraggio degli abusi del servizio Azure OpenAI? Copilot per la sicurezza si impegna in eventuali filtri dei contenuti o monitoraggio degli abusi?

Il monitoraggio degli abusi di Azure OpenAI è attualmente disabilitato a livello di servizio per tutti i clienti.

Copilot per la sicurezza ha una posizione qualsiasi per l'elaborazione dei dati o gli impegni di residenza dei dati?

  1. Posizione dell'elaborazione dei dati: In questo momento Copilot for Security non effettua alcuna posizione contrattuale degli impegni di elaborazione dati. In base alle Condizioni per il prodotto e usando un servizio di intelligenza artificiale generativa Microsoft, i clienti di Copilot for Security accettano che i loro dati possano essere elaborati al di fuori dell'area geografica del tenant. Tuttavia, gli amministratori dei clienti possono selezionare il percorso per la valutazione dei prompt. Mentre Microsoft consiglia di consentire la valutazione rapida ovunque con capacità GPU disponibile per ottenere risultati ottimali, i clienti possono scegliere tra quattro aree per valutare le richieste esclusivamente in tali aree

    Aree attualmente disponibili per la valutazione dei prompt:

    • Australia (ANZ)
    • Europa (UE)
    • Regno Unito (Regno Unito)
    • Stati Uniti (Stati Uniti).
  2. Posizione dell'archiviazione dei dati (residenza dei dati): in questo momento Copilot for Security non prevede impegni contrattuali di archiviazione/residenza dei dati. Se un cliente non è scelto per la condivisione dei dati*, Copilot for Security archivia i dati inattivi nell'area geografica principale del tenant.

    Ad esempio, per un tenant del cliente la cui casa si trova in Germania, Copilot for Security archivia i dati dei clienti in "Europa" come area geografica designata per la Germania.

    *Se un cliente acconsente esplicitamente alla condivisione dei dati, i dati dei clienti, ad esempio richieste e risposte, vengono condivisi con Microsoft per migliorare le prestazioni del prodotto, migliorare l'accuratezza e la latenza di risposta degli indirizzi. Quando si verifica questo evento, i dati dei clienti, ad esempio le richieste, possono essere archiviati all'esterno dell'area geografica del tenant.

Copilot per la sicurezza è un servizio Microsoft EU Data Boundary?

Al momento della disponibilità generale, tutti i servizi di sicurezza Microsoft non rientrano nell'ambito dei requisiti di residenza dei dati dell'UE e Copilot per la sicurezza non verrà elencato come servizio EUDB.

Dove vengono archiviati i dati dei clienti dell'UE?

Copilot for Security archivia i dati dei clienti e i dati personali, ad esempio le richieste degli utenti e gli ID oggetto Microsoft Entra nell'area geografica del tenant. Se un cliente effettua il provisioning del tenant nell'UE e non ha acconsentito esplicitamente alla condivisione dei dati, tutti i dati dei clienti e i dati personali pseudonimi vengono archiviati inattivi all'interno dell'UE. L'elaborazione dei dati dei clienti e delle richieste di dati personali può avvenire nell'area geografica GPU di sicurezza designata. Per altre informazioni sulla selezione geografica della GPU di sicurezza, vedere Introduzione a Copilot per la sicurezza. Se un cliente ha acconsentito esplicitamente alla condivisione dei dati, le richieste possono essere archiviate al di fuori del limite dei dati dell'UE. Per altre informazioni sulla condivisione dei dati, vedere Privacy e sicurezza dei dati in Microsoft Copilot per la sicurezza.

Le richieste dei clienti (ad esempio il contenuto di input del cliente) vengono considerate dati dei clienti entro i termini del DPA e delle condizioni del prodotto?

Sì, le richieste dei clienti vengono considerate dati del cliente. In Termini di prodotto, le richieste dei clienti vengono considerate input. Gli input sono definiti come "tutti i dati del cliente che il cliente fornisce, designa, seleziona o input per l'uso da parte di una tecnologia di intelligenza artificiale generativa per generare o personalizzare un output".

Il "contenuto di output" è considerato come dati del cliente entro i termini del DPA e delle condizioni del prodotto?

Sì, il contenuto di output è dato dai clienti in base alle condizioni del prodotto.

È disponibile una nota sulla trasparenza o una documentazione sulla trasparenza per Copilot per la sicurezza?

Sì, il documento Sulla trasparenza dell'intelligenza artificiale responsabile è disponibile qui: Domande frequenti sull'intelligenza artificiale responsabile.

In che modo Copilot for Security gestisce un "limite di token"?

I modelli linguistici di grandi dimensioni, inclusi GPT, hanno limiti sulla quantità di informazioni che possono elaborare contemporaneamente. Questo limite è noto come "limite di token" e corrisponde approssimativamente a 1,2 parole per token. Copilot per la sicurezza usa i modelli GPT più recenti di Azure OpenAI per garantire che sia possibile elaborare il maggior numero possibile di informazioni in una singola sessione. In alcuni casi, richieste di grandi dimensioni, sessioni lunghe o output dettagliato del plug-in potrebbero sovraccaricare lo spazio del token. Quando si verifica questo scenario, Copilot for Security tenta di applicare mitigazioni per garantire che un output sia sempre disponibile, anche se il contenuto in tale output non è ottimale. Queste mitigazioni non sono sempre efficaci e potrebbe essere necessario interrompere l'elaborazione della richiesta e indirizzare l'utente a provare una richiesta o un plug-in diverso.

Il codice di comportamento del servizio Azure OpenAI include "Requisiti di mitigazione dell'intelligenza artificiale responsabile". In che modo questi requisiti si applicano ai clienti copilot per la sicurezza?

Questi requisiti non si applicano ai clienti copilot per la sicurezza perché Copilot per la sicurezza implementa queste mitigazioni.

Informazioni sui partner

Quali sono i casi d'uso per i partner?  

I partner possono fornire segnali o creare soluzioni complementari per gli scenari copilot per la sicurezza.

Collaboro con un provider di servizi di sicurezza gestito (MSSP). Possono usare e gestire Copilot per la sicurezza per mio conto?

Sì, gli msp che forniscono servizi SOC per i clienti possono accedere all'ambiente Copilot for Security del cliente se il cliente sceglie di fornire l'accesso. (Bring your Own MSSP).

Nota

Disponibile nel portale autonomo solo con funzionalità limitate.

L'onboarding e la gestione dell'accesso MSSP al tenant (cliente) vengono offerti tramite Accesso guest (B2B) e GDAP. Attualmente non è disponibile un modello multi-tenant CSP o reseller per i provider di servizi condivisi. Ogni cliente è responsabile dell'acquisto delle proprie SKU e della configurazione dei propri provider di servizi di sicurezza con l'accesso necessario.

È possibile usare un'unica istanza di Copilot for Security per gestire più tenant?

Copilot for Security non supporta la richiesta tra più tenant. Al contrario, i provider di servizi gestiti possono usare il cambio tenant e assegnare un tenant del cliente, usando le opzioni di accesso delegato supportate.

I provider di servizi condivisi possono gestire più tenant dei clienti all'interno di Copilot for Security usando il passaggio del tenant dal tenant MSSP. Il cambio tenant consente ai partner di passare da un tenant all'altro e proteggere un tenant alla volta con richieste/query selezionando il tenant del cliente in un elenco a discesa. I clienti possono anche aggiungere il GUID (TenantID) nell'URL della sessione Copilot for Security come parametro della stringa di query. I tenant dei clienti possono essere selezionati in base all'accesso delegato al tenant del cliente. Copilot per la sicurezza viene usato nel contesto utente, quindi il partner è in grado di accedere solo a ciò a cui l'account delegato ha avuto accesso nel tenant del cliente.

Sono attualmente disponibili integrazioni di terze parti?

Stiamo lavorando con ISV come Cyware, Netskope, SGNL, Tanium e Valence Security per rilasciare i plug-in in Anteprima pubblica e continuare a creare altre integrazioni con il resto dell'ecosistema partner.

Esiste un marketplace per i plug-in o i servizi? 

Non esiste un marketplace di plug-in in disponibilità generale. Gli ISV possono pubblicare le proprie soluzioni in GitHub. A livello generale, tutti i partner sono tenuti a pubblicare le proprie soluzioni o servizi gestiti nel marketplace commerciale Microsoft. Altre informazioni sulla pubblicazione nel marketplace sono disponibili qui:

Pubblicare una soluzione in Microsoft Commercial Marketplace:

Specifica di MSSP: Deve avere una designazione di sicurezza nel programma Microsoft AI Cloud Partner.

SaaS specifico:

Che dire degli MSSP che partecipano anche a Copilot for Security EAP come cliente? 

I provider di servizi di sicurezza che fanno parte di EAP continueranno ad avere accesso a Copilot for Security fino alla fine del contratto EAP di 6 mesi. Se un provider di servizi microsoft usa lo stesso tenant per i servizi SOC interni e gestiti dal cliente, deve acquistare un piano di capacità e assicurarsi che i modelli di accesso delegato supportati siano abilitati tramite il tenant usato dal soc gestito. Se un provider di servizi condivisi del servizio gestito usa un tenant solo per i servizi SOC gestiti dal cliente che non vengono usati per i servizi gestiti soc interni, il provider di servizi mssp deve avere il provisioning manuale del tenant per Copilot per la sicurezza da parte di Microsoft. Pertanto, non è necessario alcun acquisto di piano di capacità per il provisioning di Copilot per la sicurezza.

Cosa accade se i provider di servizi microsoft non usano Microsoft Defender XDR o Microsoft Sentinel? 

Microsoft Copilot per la sicurezza non ha alcun requisito specifico del prodotto di sicurezza Microsoft per il provisioning o l'uso, poiché la soluzione è basata sull'aggregazione di origini dati da servizi Microsoft e di terze parti. Detto questo, c'è un valore significativo nel fatto che Microsoft Defender XDR e Microsoft Sentinel sono abilitati come plug-in supportati per arricchire le indagini. Copilot for Security usa solo competenze e accede ai dati dai plug-in abilitati.

Una soluzione SOC MSSPs deve essere ospitata in Azure? 

È consigliabile che la soluzione sia ospitata in Azure ma non necessaria. 

Esiste una roadmap del prodotto che può essere condivisa con i partner? 

Al momento no.