Condividi tramite


guida alla pianificazione dello sviluppo dell'agente Security Copilot

Importante

Alcune informazioni in questo articolo fanno riferimento alle caratteristiche di un prodotto prima del rilascio, che possono essere modificate sostanzialmente prima della distribuzione al pubblico. Microsoft non fornisce alcuna garanzia, esplicita o implicita, in relazione alle informazioni contenute in questo documento.

Microsoft Security Copilot (Security Copilot) è una soluzione di sicurezza generativa basata su intelligenza artificiale che consente di aumentare l'efficienza e le funzionalità dei difensori per migliorare i risultati di sicurezza a velocità e scalabilità della macchina. Security Copilot agenti usano l'intelligenza artificiale per completare le attività di routine e raccogliere informazioni dettagliate con un certo livello di autonomia in modo da poter concentrarsi sul lavoro di alto valore. È possibile creare agenti che adattino e migliorino l'esperienza Security Copilot per soddisfare le esigenze aziendali specifiche dell'organizzazione.

La pianificazione è un primo passo importante nella progettazione e nella creazione degli agenti di sicurezza. La progettazione di agenti Security Copilot efficaci richiede una pianificazione accurata, uno sviluppo iterativo e un forte allineamento con i principi di IA responsabile. Questa guida serve a strutturare il processo di pianificazione per creare agenti che comprendano il contesto aziendale univoco.

Che si stia progettando diversi scenari end-to-end come la risposta agli eventi imprevisti, la ricerca delle minacce, la raccolta di informazioni, la gestione della postura e altro ancora, ecco i principi fondamentali per guidare il processo:

Definire un obiettivo chiaro

Iniziare articolando lo scopo dell'agente:

  • Dichiarazione del problema: quale sfida operativa o di sicurezza specifica sta risolvendo l'agente? Ad esempio, un agente che monitora gli avvisi degli endpoint e li arricchisce automaticamente con intelligence sulle minacce per ridurre il carico di lavoro degli analisti.
  • Utenti di destinazione: sono analisti del Centro operativo di sicurezza, amministratori IT, Amministrazione di conformità o sviluppatori? Vedi, Security Copilot persone.
  • Metriche di successo: definire risultati misurabili, ad esempio tempi di valutazione ridotti, accuratezza del rilevamento migliorata o correzione automatica.

Per indicazioni dettagliate sulla scelta dell'esperienza più adatta ai requisiti dell'agente, vedere Agenti personalizzati.

Identificare le funzionalità necessarie

Suddividere gli strumenti necessari per il corretto esito dell'agente:

  • Cognitivo: classificare gli avvisi, riepilogare gli eventi imprevisti, correlare i segnali.
  • Conversazione: interpretare le richieste degli utenti, generare spiegazioni chiare. Per i flussi di lavoro che richiedono agli analisti di interagire con un agente, vedere Creare agenti interattivi.
  • Operativo: attivare flussi di lavoro, chiamare API, recuperare log o documenti.

Usare lo strumento Security Copilot (competenza) per definire queste funzionalità. Gli strumenti possono essere riutilizzati o composti in agenti usando il manifesto YAML. Per caricare uno strumento o un plug-in, vedere Manifesto dell'agente di compilazione.

Comprendere il contesto e l'ecosistema univoci

Security Copilot agenti operano in un ambiente sicuro ed estensibile su misura per le esigenze specifiche dell'organizzazione:

  • Origini dati: identificare i sistemi, gli avvisi o le API a cui l'agente deve accedere, ad esempio Microsoft Defender, Microsoft Sentinel, Microsoft Graph. Per le integrazioni a queste origini, vedere Plug-in.
  • Sicurezza e conformità: determinare l'accesso degli utenti alla piattaforma Security Copilot tramite il controllo degli accessi in base al ruolo ( Role Based Controllo di accesso), l'autenticazione per conto dell'utente e il livello di copertura della sicurezza con i criteri di accesso condizionale. Per altre informazioni, vedere Controllo degli accessi in base al ruolo.
  • Gestione dello stato: applicare il feedback degli agenti tramite i ricordi per rendere persistenti le informazioni rilevanti tra le sessioni.

Assegnare priorità all'intelligenza artificiale etica e responsabile

Security Copilot agenti devono rispettare i principi di IA responsabile nelle dimensioni seguenti:

  1. Trasparenza:

    • Consentire agli utenti di verificare le origini informazioni.
    • Comunicare chiaramente quali dati vengono archiviati in memoria e come vengono usati.
    • Comprendere le limitazioni e le funzionalità dell'agente.
    • Mostra come sono state prese le decisioni( ad esempio, quale strumento è stato usato, quali dati sono stati recuperati).
  2. Aspettative appropriate:

    • Fornire una logica chiara per le azioni eseguite dall'agente.
    • Definire l'ambito delle capacità di ragionamento dell'agente.
  3. Impedisci overreliance:

    • Assicurarsi che gli utenti possano identificare gli errori nell'output dell'agente.
    • Incoraggiare gli utenti a convalidare i risultati per l'accuratezza.
    • Opzione per rifiutare risultati non corretti o output fuorvianti.
  4. Sicurezza e privacy:

    • Mascherare i dati sensibili e rispettare i limiti del tenant.
    • Assicurarsi che gli agenti funzionino in linea con i criteri dell'organizzazione, preservando al tempo stesso l'integrità dei dati.
    • Applicare l'accesso con privilegi minimi ai sistemi back-end.
  5. Governance e conformità:

    • Usare convenzioni di denominazione e dichiarazioni di non responsabilità per garantire chiarezza e conformità.
  6. Feedback:

    • Consentire agli utenti di fornire commenti e suggerimenti sull'output generato.
    • Usare il feedback per identificare i problemi e migliorare continuamente le prestazioni e l'affidabilità degli agenti.

Passaggi successivi

Vedere anche