Condividi tramite


Domande frequenti sull'intelligenza artificiale responsabile

Che cos'è Microsoft Copilot per la sicurezza? 

Copilot for Security è un linguaggio naturale, è una soluzione di sicurezza generativa basata su intelligenza artificiale che consente di aumentare l'efficienza e le funzionalità dei difensori per migliorare i risultati di sicurezza a velocità e scalabilità della macchina. Disegna il contesto da plug-in e dati per rispondere alle richieste, in modo che i professionisti della sicurezza e gli amministratori IT possano contribuire a proteggere le loro organizzazioni.

Cosa può fare Copilot per la sicurezza? 

Copilot for Security consente di rispondere alle domande in linguaggio naturale in modo da poter ricevere risposte interattive alle attività IT e di sicurezza comuni in pochi secondi.

Microsoft Copilot per la sicurezza è utile negli scenari seguenti:

  • Operazioni di sicurezza

    Gestire le vulnerabilità e le minacce emergenti, accelerare la risposta agli eventi imprevisti con un'indagine guidata e sfruttare funzionalità avanzate come l'analisi degli script e l'assistenza alle query.

  • Gestione dispositivi

    Generare criteri e simularne i risultati, raccogliere informazioni sui dispositivi per la forense e configurare i dispositivi con procedure consigliate da distribuzioni simili. 

  • Gestione delle identità

    Individuare l'accesso con privilegi eccessivo, generare verifiche di accesso per gli eventi imprevisti, generare e descrivere i criteri di accesso e valutare le licenze tra le soluzioni. 

  • Protezione dei dati

    Identificare i dati interessati dagli incidenti di sicurezza, generare riepiloghi completi dei rischi di sicurezza e conformità dei dati e individuare i rischi che possono violare gli obblighi di conformità alle normative.

  • Protezione cloud

    Individuare i percorsi di attacco che influiscono sui carichi di lavoro e riepilogare i cve cloud per prevenire in modo proattivo le minacce e gestire il comportamento di sicurezza del cloud in modo più efficiente.

Qual è l'uso previsto di Copilot per la sicurezza? 

Copilot per la sicurezza ha lo scopo di aiutare gli analisti della sicurezza a investigare e risolvere gli eventi imprevisti, a riassumere e spiegare gli eventi di sicurezza e a condividere i risultati con gli stakeholder.  

Come è stato valutato Copilot per la sicurezza? Quali metriche vengono usate per misurare le prestazioni? 

Copilot per la sicurezza è stato sottoposto a test approfonditi prima di essere rilasciato. I test hanno incluso il red teaming, ovvero la pratica di testare rigorosamente il prodotto per identificare le modalità di errore e gli scenari che potrebbero indurre Copilot per la sicurezza a fare o dire cose che non rientrano negli usi previsti o che non supportano i principi di intelligenza artificiale Microsoft.

Ora che è stato rilasciato, il feedback degli utenti è fondamentale per aiutare Microsoft a migliorare il sistema. Hai la possibilità di fornire un feedback ogni volta che ricevi un output da Copilot per la sicurezza. Quando una risposta è imprecisa, incompleta o poco chiara, usare i pulsanti "Off-target" e "Report" per contrassegnare qualsiasi output sgradevole. Puoi anche verificare quando le risposte sono utili e accurate usando il pulsante "Conferma". Questi pulsanti vengono visualizzati nella parte inferiore di ogni risposta Copilot per la sicurezza e il feedback viene inviato direttamente a Microsoft per migliorare le prestazioni della piattaforma.

Quali sono le limitazioni di Copilot per la sicurezza? In che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni di Copilot per la sicurezza quando si usa il sistema? 

  • Il programma di accesso anticipato è progettato per offrire ai clienti l'opportunità di accedere in anticipo alle Copilot per la sicurezza e fornire feedback sulla piattaforma. Le funzionalità di anteprima non sono destinate all'uso in produzione e potrebbero avere funzionalità limitate. 

  • Come ogni tecnologia basata sull'intelligenza artificiale, Copilot per la sicurezza non è sempre in grado di fare tutto correttamente. Tuttavia, puoi contribuire a migliorare le sue risposte fornendo le tue osservazioni tramite lo strumento di feedback, integrato nella piattaforma.  

  • Il sistema potrebbe generare risposte non aggiornate se non gli vengono forniti i dati più recenti attraverso l'input dell'utente o i plug-in. Per ottenere i risultati migliori, verificare che siano abilitati i plug-in corretti.

  • Il sistema è progettato per rispondere ai prompt relativi al dominio di sicurezza, ad esempio l'analisi degli eventi imprevisti e l'intelligence sulle minacce. I prompt al di fuori dell'ambito della sicurezza potrebbero comportare risposte prive di accuratezza e completezza.

  • Copilot per la sicurezza potrebbe generare codice o includere codice nelle risposte, che potrebbe potenzialmente esporre informazioni sensibili o vulnerabilità se non utilizzato con attenzione. Le risposte potrebbero sembrare valide, ma potrebbero non essere semanticamente o sintatticamente corrette o potrebbero non riflettere accuratamente la finalità dello sviluppatore. Gli utenti devono sempre prendere le stesse precauzioni che adotterebbero per qualsiasi codice che scrivono e che utilizza materiale che non è stato creato autonomamente dagli utenti, comprese le precauzioni per assicurarne l'idoneità. Questi includono test rigorosi, analisi IP e controllo delle vulnerabilità di sicurezza.

  • Corrispondenza con il codice pubblico: Copilot per la sicurezza è in grado di generare nuovo codice, e lo fa in modo probabilistico. Anche se la probabilità che produca codice che corrisponde a quello dell'insieme di addestramento è bassa, un suggerimento di Copilot per la sicurezza potrebbe contenere alcuni frammenti di codice che corrispondono al codice nel set di training. Gli utenti devono sempre prendere le stesse precauzioni che adotterebbero per qualsiasi codice scritto che utilizzi materiale non originato autonomamente dagli sviluppatori, comprese le precauzioni per assicurarne l'idoneità. Questi includono test rigorosi, analisi IP e controllo delle vulnerabilità di sicurezza.

  • Il sistema potrebbe non essere in grado di elaborare prompt lunghi, ad esempio centinaia di migliaia di caratteri.

  • L'uso della piattaforma potrebbe essere soggetto a limiti di utilizzo o limitazione della capacità. Anche con richieste più brevi, la scelta di un plug-in, l'esecuzione di chiamate API, la generazione di risposte e la loro verifica prima di visualizzarle all'utente possono richiedere tempo (fino a diversi minuti) e un'elevata capacità della GPU. 

  • Per ridurre al minimo gli errori, si consiglia agli utenti di seguire le indicazioni del prompt

Quali fattori operativi e impostazioni consentono un uso efficace e responsabile di Copilot per la sicurezza? 

  • Puoi usare parole di uso quotidiano per descrivere ciò che vorresti che Copilot per la sicurezza facesse. Ad esempio:

    • "Informazioni sugli eventi imprevisti più recenti" o "Riepiloga questo evento imprevisto".
  • Man mano che il sistema genera la risposta, si iniziano a vedere i passi che il sistema sta compiendo nel registro dei processi, offrendo l'opportunità di ricontrollare i processi e le fonti.  

  • In qualsiasi momento durante la formazione di un prompt, è possibile annullarlo, modificarlo, rieseguirlo o cancellarlo. 

  • È possibile fornire un feedback sulla qualità di una risposta, segnalando anche a Microsoft eventuali problemi inaccettabili. 

  • Le risposte possono essere appuntate, condivise ed esportate, aiutando i professionisti della sicurezza a collaborare e condividere le osservazioni. 

  • Gli amministratori hanno il controllo sui plug-in che si connettono a Copilot per la sicurezza.   

  • È possibile scegliere, personalizzare e gestire i plug-in che funzionano con Copilot per la sicurezza.

  • Copilot per la sicurezza ha creato dei promptbook, ovvero un gruppo di prompt che vengono eseguiti in sequenza per completare un flusso di lavoro specifico.

In che modo Microsoft si avvicina all'intelligenza artificiale responsabile per Copilot per la sicurezza?

In Microsoft prendiamo sul serio il nostro impegno per un'intelligenza artificiale responsabile. Copilot per la sicurezza è stato sviluppato in conformità con i nostri principi di intelligenza artificiale. Stiamo lavorando con OpenAI per offrire un'esperienza che incoraggi un uso responsabile. Ad esempio, abbiamo collaborato e continueremo a collaborare con OpenAI per il lavoro sui modelli fondamentali. Abbiamo progettato l'esperienza utente di Copilot per la sicurezza per mantenere gli esseri umani al centro. Abbiamo sviluppato un sistema di sicurezza progettato per attenuare i problemi e prevenire gli abusi con elementi quali l'annotazione dei contenuti nocivi, il monitoraggio operativo e altre salvaguardie. Il programma di accesso anticipato su invito fa parte del nostro approccio all'intelligenza artificiale responsabile. Si assumono commenti e suggerimenti degli utenti da parte di coloro che hanno accesso anticipato a Copilot for Security per migliorare lo strumento prima di renderlo disponibile a livello generale.

Un'intelligenza artificiale responsabile è un viaggio e noi miglioreremo continuamente i nostri sistemi lungo il percorso. Ci impegniamo a rendere l'intelligenza artificiale più affidabile e attendibile e il tuo feedback ci aiuterà a farlo.

Rispettate la legge sull'intelligenza artificiale dell'UE?

Siamo impegnati a rispettare la legge europea sull'intelligenza artificiale. Il nostro sforzo pluriennale per definire, evolvere e implementare il nostro standard di intelligenza artificiale responsabile e la nostra governance interna ha rafforzato la nostra preparazione.

In Microsoft riconosciamo l'importanza della conformità normativa come pietra miliare della fiducia e dell'affidabilità delle tecnologie di intelligenza artificiale. Ci impegniamo a creare un'intelligenza artificiale responsabile in base alla progettazione. Il nostro obiettivo è quello di sviluppare e distribuire un'intelligenza artificiale che abbia un impatto benefico sulla società e che le faccia guadagnare fiducia.

Il nostro lavoro è guidato da una serie di principi fondamentali: equità, affidabilità e sicurezza, privacy e sicurezza, inclusione, trasparenza e responsabilità. Microsoft Responsible AI Standard accetta questi sei principi e li suddivide in obiettivi e requisiti per l'IA resa disponibile.

Il nostro standard di intelligenza artificiale responsabile tiene conto delle proposte normative e della loro evoluzione, compresa la proposta iniziale della legge europea sull'intelligenza artificiale. Abbiamo sviluppato i nostri prodotti e servizi più recenti nel settore dell'intelligenza artificiale, come Microsoft Copilot e Microsoft Azure OpenAI Service, in linea con il nostro Responsible AI Standard. Man mano che i requisiti finali della legge europea sull'intelligenza artificiale verranno definiti in modo più dettagliato, saremo lieti di collaborare con i responsabili politici per garantire un'attuazione e un'applicazione fattibile delle norme, di dimostrare la nostra conformità e di impegnarci con i nostri clienti e gli altri stakeholder per sostenere la conformità in tutto l'ecosistema.