Domande frequenti sull'intelligenza artificiale responsabile

Che cos'è Microsoft Copilot per la sicurezza? 

Copilot per la sicurezza è uno strumento di analisi della sicurezza basato su intelligenza artificiale che consente ai professionisti della sicurezza di rispondere rapidamente alle minacce, elaborare i segnali alla velocità della macchina e valutare l'esposizione ai rischi in pochi minuti. Disegna il contesto da plug-in e dati per rispondere alle richieste correlate alla sicurezza in modo che i professionisti della sicurezza possano contribuire a mantenere sicure le loro organizzazioni. Gli utenti possono raccogliere le risposte che ritengono utili da Copilot per la sicurezza e appuntarle sulla bacheca per riferimenti futuri.

Cosa può fare Copilot per la sicurezza? 

Copilot per la sicurezza offre tutta la potenza dell'architettura OpenAI e la combina con modelli specifici per la sicurezza sviluppati dall'esperienza leader di Microsoft Security, dall'intelligence globale sulle minacce e dai prodotti di sicurezza completi. Copilot per la sicurezza aiuta i professionisti della sicurezza a rilevare meglio le minacce, a rafforzare le difese e a rispondere più rapidamente agli incidenti di sicurezza.

Microsoft Copilot per la sicurezza aiuta a potenziare le operazioni di sicurezza:

  • Scoprendo le vulnerabilità, dando priorità ai rischi e fornendo raccomandazioni guidate per la prevenzione e la correzione delle minacce

  • Rilevando gli incidenti, valutandone l'entità e fornendo raccomandazioni per le fasi di rimedio

  • Riepilogando eventi, incidenti e minacce e creando report personalizzabili

  • Collaborando con i professionisti della sicurezza grazie a funzionalità integrate

Qual è l'uso previsto di Copilot per la sicurezza? 

Copilot per la sicurezza ha lo scopo di aiutare gli analisti della sicurezza a investigare e risolvere gli eventi imprevisti, a riassumere e spiegare gli eventi di sicurezza e a condividere i risultati con gli stakeholder.  

Come è stato valutato Copilot per la sicurezza? Quali metriche vengono usate per misurare le prestazioni? 

Copilot per la sicurezza è stato sottoposto a test approfonditi prima di essere rilasciato. I test hanno incluso il red teaming, ovvero la pratica di testare rigorosamente il prodotto per identificare le modalità di errore e gli scenari che potrebbero indurre Copilot per la sicurezza a fare o dire cose che non rientrano negli usi previsti o che non supportano i principi di intelligenza artificiale Microsoft.

Ora che è stato rilasciato, il feedback degli utenti è fondamentale per aiutare Microsoft a migliorare il sistema. Hai la possibilità di fornire un feedback ogni volta che ricevi un output da Copilot per la sicurezza. Quando una risposta è imprecisa, incompleta o poco chiara, usare i pulsanti "Off-target" e "Report" per contrassegnare qualsiasi output sgradevole. Puoi anche verificare quando le risposte sono utili e accurate usando il pulsante "Conferma". Questi pulsanti vengono visualizzati nella parte inferiore di ogni risposta Copilot per la sicurezza e il feedback viene inviato direttamente a Microsoft per migliorare le prestazioni della piattaforma.

Quali sono le limitazioni di Copilot per la sicurezza? In che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni di Copilot per la sicurezza quando si usa il sistema? 

  • Il programma di accesso anticipato è progettato per offrire ai clienti l'opportunità di accedere in anticipo alle Copilot per la sicurezza e fornire feedback sulla piattaforma. Le funzionalità di anteprima non sono destinate all'uso in produzione e potrebbero avere funzionalità limitate. 

  • Come ogni tecnologia basata sull'intelligenza artificiale, Copilot per la sicurezza non è sempre in grado di fare tutto correttamente. Tuttavia, puoi contribuire a migliorare le sue risposte fornendo le tue osservazioni tramite lo strumento di feedback, integrato nella piattaforma.  

  • Il sistema potrebbe generare risposte non aggiornate se non gli vengono forniti i dati più recenti attraverso l'input dell'utente o i plug-in. Per ottenere i risultati migliori, verificare che siano abilitati i plug-in corretti.

  • Il sistema è progettato per rispondere ai prompt relativi al dominio di sicurezza, ad esempio l'analisi degli eventi imprevisti e l'intelligence sulle minacce. I prompt al di fuori dell'ambito della sicurezza potrebbero comportare risposte prive di accuratezza e completezza.

  • Copilot per la sicurezza potrebbe generare codice o includere codice nelle risposte, che potrebbe potenzialmente esporre informazioni sensibili o vulnerabilità se non utilizzato con attenzione. Le risposte potrebbero sembrare valide, ma potrebbero non essere semanticamente o sintatticamente corrette o potrebbero non riflettere accuratamente la finalità dello sviluppatore. Gli utenti devono sempre prendere le stesse precauzioni che adotterebbero per qualsiasi codice che scrivono e che utilizza materiale che non è stato creato autonomamente dagli utenti, comprese le precauzioni per assicurarne l'idoneità. Questi includono test rigorosi, analisi IP e controllo delle vulnerabilità di sicurezza.

  • Corrispondenza con il codice pubblico: Copilot per la sicurezza è in grado di generare nuovo codice, e lo fa in modo probabilistico. Anche se la probabilità che produca codice che corrisponde a quello dell'insieme di addestramento è bassa, un suggerimento di Copilot per la sicurezza potrebbe contenere alcuni frammenti di codice che corrispondono al codice nel set di training. Gli utenti devono sempre prendere le stesse precauzioni che adotterebbero per qualsiasi codice scritto che utilizzi materiale non originato autonomamente dagli sviluppatori, comprese le precauzioni per assicurarne l'idoneità. Questi includono test rigorosi, analisi IP e controllo delle vulnerabilità di sicurezza.

  • Il sistema potrebbe non essere in grado di elaborare prompt lunghi, ad esempio centinaia di migliaia di caratteri.

  • L'uso della piattaforma potrebbe essere soggetto a limiti di utilizzo o limitazione della capacità. Anche con richieste più brevi, la scelta di un plug-in, l'esecuzione di chiamate API, la generazione di risposte e la loro verifica prima di visualizzarle all'utente possono richiedere tempo (fino a diversi minuti) e un'elevata capacità della GPU. 

  • Per ridurre al minimo gli errori, si consiglia agli utenti di seguire le indicazioni del prompt

Quali fattori operativi e impostazioni consentono un uso efficace e responsabile di Copilot per la sicurezza? 

  • Puoi usare parole di uso quotidiano per descrivere ciò che vorresti che Copilot per la sicurezza facesse. Ad esempio:

    • "Informazioni sugli eventi imprevisti più recenti" o "Riepiloga questo evento imprevisto".
  • Man mano che il sistema genera la risposta, si iniziano a vedere i passi che il sistema sta compiendo nel registro dei processi, offrendo l'opportunità di ricontrollare i processi e le fonti.  

  • In qualsiasi momento durante la formazione di un prompt, è possibile annullarlo, modificarlo, rieseguirlo o cancellarlo. 

  • È possibile fornire un feedback sulla qualità di una risposta, segnalando anche a Microsoft eventuali problemi inaccettabili. 

  • Le risposte possono essere appuntate, condivise ed esportate, aiutando i professionisti della sicurezza a collaborare e condividere le osservazioni. 

  • Gli amministratori hanno il controllo sui plug-in che si connettono a Copilot per la sicurezza.   

  • È possibile scegliere, personalizzare e gestire i plug-in che funzionano con Copilot per la sicurezza.

  • Copilot per la sicurezza ha creato dei promptbook, ovvero un gruppo di prompt che vengono eseguiti in sequenza per completare un flusso di lavoro specifico.

In che modo Microsoft si avvicina all'intelligenza artificiale responsabile per Copilot per la sicurezza?

In Microsoft prendiamo sul serio il nostro impegno per un'intelligenza artificiale responsabile. Copilot per la sicurezza è stato sviluppato in conformità con i nostri principi di intelligenza artificiale. Stiamo lavorando con OpenAI per offrire un'esperienza che incoraggi un uso responsabile. Ad esempio, abbiamo collaborato e continueremo a collaborare con OpenAI per il lavoro sui modelli fondamentali. Abbiamo progettato l'esperienza utente di Copilot per la sicurezza per mantenere gli esseri umani al centro. Abbiamo sviluppato un sistema di sicurezza progettato per attenuare i problemi e prevenire gli abusi con elementi quali l'annotazione dei contenuti nocivi, il monitoraggio operativo e altre salvaguardie. Il programma di accesso anticipato su invito fa parte del nostro approccio all'intelligenza artificiale responsabile. Si assumono commenti e suggerimenti degli utenti da parte di coloro che hanno accesso anticipato a Copilot per la sicurezza per migliorare lo strumento prima di renderlo disponibile a livello generale.

Un'intelligenza artificiale responsabile è un viaggio e noi miglioreremo continuamente i nostri sistemi lungo il percorso. Ci impegniamo a rendere l'intelligenza artificiale più affidabile e attendibile e il tuo feedback ci aiuterà a farlo.

Rispettate la legge sull'intelligenza artificiale dell'UE?

Siamo impegnati a rispettare la legge europea sull'intelligenza artificiale. Il nostro sforzo pluriennale per definire, evolvere e implementare il nostro standard di intelligenza artificiale responsabile e la nostra governance interna ha rafforzato la nostra preparazione.

In Microsoft riconosciamo l'importanza della conformità normativa come pietra miliare della fiducia e dell'affidabilità delle tecnologie di intelligenza artificiale. Ci impegniamo a creare un'intelligenza artificiale responsabile in base alla progettazione. Il nostro obiettivo è quello di sviluppare e distribuire un'intelligenza artificiale che abbia un impatto benefico sulla società e che le faccia guadagnare fiducia.

Il nostro lavoro è guidato da una serie di principi fondamentali: equità, affidabilità e sicurezza, privacy e sicurezza, inclusione, trasparenza e responsabilità. Microsoft Responsible AI Standard accetta questi sei principi e li suddivide in obiettivi e requisiti per l'IA resa disponibile.

Il nostro standard di intelligenza artificiale responsabile tiene conto delle proposte normative e della loro evoluzione, compresa la proposta iniziale della legge europea sull'intelligenza artificiale. Abbiamo sviluppato i nostri prodotti e servizi più recenti nel settore dell'intelligenza artificiale, come Microsoft Copilot e Microsoft Azure OpenAI Service, in linea con il nostro Responsible AI Standard. Man mano che i requisiti finali della legge europea sull'intelligenza artificiale verranno definiti in modo più dettagliato, saremo lieti di collaborare con i responsabili politici per garantire un'attuazione e un'applicazione fattibile delle norme, di dimostrare la nostra conformità e di impegnarci con i nostri clienti e gli altri stakeholder per sostenere la conformità in tutto l'ecosistema.