Condividi tramite


Domande frequenti sulla sicurezza e sulla privacy dei dati utilizzati da Copilot per Dynamics 365 e Power Platform

Le funzionalità di Copilot per Dynamics 365 e per Power Platform seguono un set di pratiche di base per la sicurezza e la privacy e lo Standard sull'intelligenza artificiale responsabile Microsoft. I dati di Dynamics 365 e Power Platform sono protetti da controlli di conformità, sicurezza e privacy completi e leader del settore.

Copilot si basa sul Servizio OpenAI di Microsoft Azure e viene eseguito completamente nel cloud di Azure. Il Servizio OpenAI di Azure offre disponibilità a livello di area e la possibilità di filtrare il contenuto basato sull'intelligenza artificiale responsabile. Copilot utilizza i modelli OpenAI con tutte le funzionalità di sicurezza di Microsoft Azure. OpenAI è un'organizzazione indipendente. Non condividiamo i tuoi dati con OpenAI.

Le funzionalità di Copilot non sono disponibili in tutte le aree geografiche e in tutte le lingue di Azure. A seconda di dove è ospitato il tuo ambiente, potrebbe essere necessario consentire lo spostamento dei dati tra aree geografiche per utilizzarli. Per altre informazioni, consulta gli articoli elencati in Spostamento di dati tra aree geografiche.

Che cosa succede ai dati quando si usa Copilot?

Hai tu il controllo dei tuoi dati. Microsoft non condivide i tuoi dati con terze parti a meno che tu non abbia dato autorizzazione in tal senso. Inoltre, non usiamo i dati dei tuoi clienti per eseguire il training di Copilot o delle sue funzionalità di intelligenza artificiale, a meno che tu non abbia dato il tuo consenso in tal senso. Copilot aderisce alle autorizzazioni e ai criteri sui dati esistenti e le risposte che fornisce si basano solo sui dati a cui puoi accedere personalmente. Per altre informazioni su come controllare i tuoi dati e su come vengono trattati, vedi gli articoli elencati nella sezione Copilot nelle app Dynamics 365 e in Power Platform.

Copilot monitora eventuali usi impropri o dannosi del servizio con l'elaborazione transitoria. Non archiviamo né conduciamo un controllo visivo degli input e degli output di Copilot per scopi di monitoraggio di eventuali usi impropri.

In che modo Copilot usa i dati?

Ogni servizio o funzionalità usa Copilot in base ai dati che fornisci o che configuri per l'elaborazione in Copilot.

Le tue richieste (input) e le risposte di Copilot (output o risultati):

Altre informazioni sulla sicurezza e sulla privacy dei dati del Servizio OpenAI di Azure. Per altre informazioni su come Microsoft protegge e utilizza i tuoi dati più in generale, leggi la nostra Informativa sulla privacy.

Dove vanno i miei dati?

Microsoft si basa sulla fiducia. Ci impegniamo a garantire la sicurezza, la privacy e la conformità in tutto ciò che facciamo e il nostro approccio all'intelligenza artificiale non è diverso. I dati dei clienti, inclusi gli input e gli output di Copilot, vengono archiviati all'interno del limite di trust di Microsoft Cloud.

In alcuni scenari, ad esempio le funzionalità basate su Bing e i plug-in copiloti di terze parti, i dati dei clienti potrebbero essere trasmessi al di fuori del limite di trust di Microsoft Cloud.

Copilot può accedere ai contenuti crittografati?

I dati vengono forniti a Copilot in base al livello di accesso dell'utente corrente. Se un utente ha accesso a dati crittografati in Dynamics 365 e Power Platform e li fornisce a Copilot, Copilot vi potrà accedere.

In che modo Copilot protegge i dati dei clienti?

Microsoft è all'avanguardia nell'offerta di intelligenza artificiale di livello aziendale. Copilot si basa sul Servizio OpenAI di Azure ed è conforme ai nostri impegni verso i nostri clienti in termini di privacy, sicurezza e normative.

  • Basato sull'approccio completo di Microsoft alla sicurezza, alla privacy e alla conformità. Copilot è integrato in servizi Microsoft come Dynamics 365 e Power Platform ed eredita i criteri e i processi di sicurezza, conformità e privacy di questi prodotti, come ad esempio l'autenticazione a più fattori e i limiti di conformità.

  • Molteplici forme di protezione per salvaguardare i dati dell'organizzazione. Le tecnologie lato servizio crittografano i contenuti inattivi e in transito dell'organizzazione a favore di una sicurezza solida. Le connessioni sono salvaguardate con il protocollo Transport Layer Security (TLS) e i trasferimenti di dati tra Dynamics 365, Power Platform e OpenAI di Azure avvengono sulla rete backbone Microsoft, garantendo così affidabilità e sicurezza. Altre informazioni sulla crittografia in Microsoft Cloud.

  • Un'architettura progettata per proteggere i tuoi dati sia a livello di tenant sia a livello di ambiente. Siamo consapevoli del fatto che la perdita di dati è un grosso problema per i clienti. I modelli di intelligenza artificiale di Microsoft non vengono sottoposti a training e non apprendono dai dati del tenant o dalle richieste, a meno che l'amministratore del tuo tenant non abbia acconsentito esplicitamente a condividere i dati con noi. Nei tuoi ambienti, puoi controllare l'accesso tramite le autorizzazioni che imposti. I meccanismi di autenticazione e autorizzazione separano le richieste nel modello condiviso tra i tenant. Copilot utilizza dati a cui solo tu puoi accedere, usando la stessa tecnologia che utilizziamo da anni per proteggere i dati dei clienti.

Le risposte di Copilot sono sempre basate sui fatti?

Come avviene in tutte le soluzioni di IA generativa, le risposte di Copilot non sono affidabili al 100%. Il nostro lavoro per migliorare le risposte continua, ma nel frattempo è consigliabile che tu mantenga un giudizio critico quando esamini l'output prima di inviarlo ad altri. Copilot offre bozze e riepiloghi utili per aiutarti ad aumentare la tua produttività, ma è completamente automatico. Hai sempre l'opportunità di rivedere il contenuto generato dall'intelligenza artificiale.

I nostri team stanno lavorando per risolvere in modo proattivo problemi come la cattiva informazione e la disinformazione, il bloccaggio dei contenuti, la sicurezza dei dati e la promozione di contenuti dannosi o discriminatori, secondo i nostri principi di intelligenza artificiale responsabile.

Offriamo anche indicazioni all'interno dell'esperienza utente per rafforzare l'uso responsabile del contenuto e delle azioni generati dall'intelligenza artificiale.

  • Istruzioni e richieste. Quando usi Copilot, le richieste e altri elementi informativi ti ricordano di rivedere e modificare le risposte secondo necessità e di verificare manualmente l'accuratezza dei fatti, dei dati e del testo prima di utilizzare il contenuto generato dall'intelligenza artificiale.

  • Fonti citate. Ove applicabile, Copilot cita le sue fonti di informazione, pubbliche o interne, in modo che tu possa esaminarle di persona per verificare le sue risposte.

Per altre informazioni, vedi le Domande frequenti sull'intelligenza artificiale responsabile per il tuo prodotto su Microsoft Learn.

In che modo Copilot blocca i contenuti dannosi?

Il Servizio OpenAI di Azure include un sistema di filtraggio dei contenuti che opera insieme ai modelli di base. I modelli di filtro dei contenuti per le categorie Odio ed equità, Sesso, Violenza e Autolesionismo sono stati appositamente sottoposti a training e testati in varie lingue. Questo sistema funziona eseguendo sia la richiesta di input sia la risposta attraverso modelli di classificazione progettati per identificare e bloccare l'output di contenuti dannosi.

I danni correlati all'odio e all'equità si riferiscono a qualsiasi contenuto che utilizza un linguaggio peggiorativo o discriminatorio basato su attributi quali razza, etnia, nazionalità, identità ed espressione di genere, orientamento sessuale, religione, stato di immigrazione, stato di abilità, aspetto personale e corporatura. Per equità si intende la garanzia che i sistemi di intelligenza artificiale trattino equamente tutti i gruppi di persone senza contribuire alle disuguaglianze sociali esistenti. I contenuti di natura sessuale includono discussioni sugli organi riproduttivi umani, relazioni sentimentali, atti rappresentati in termini erotici o affettuosi, gravidanza, atti sessuali fisici, compresi quelli descritti come aggressione o atto forzato di violenza sessuale, prostituzione, pornografia e abuso. La violenza descrive il linguaggio correlato ad azioni fisiche intese a ferire o uccidere, comprese azioni, armi ed entità correlate. Il linguaggio di autolesionismo si riferisce ad azioni deliberate intese a ferire o uccidere se stessi.

Altre informazioni sul filtro dei contenuti di Azure OpenAI.

Copilot blocca il prompt injection (attacchi jailbreak)?

Gli attacchi jailbreak sono richieste di utenti progettate per provocare il modello di IA generativa perché adotti comportamenti per cui in fase di training non era stato addestrato o perché infranga le regole per cui era stato addestrato. La protezione dal prompt injection nei servizi di Dynamics 365 e Power Platform deve essere implementata obbligatoriamente. Altre informazioni sugli attacchi jailbreak e su come usare Sicurezza dei contenuti di Azure AI per rilevarli.

Copilot blocca il prompt injection indiretto (attacchi jailbreak indiretti)?

Gli attacchi indiretti, definiti anche attacchi tempestivi indiretti o attacchi prompt injection tra domini, rappresentano una potenziale vulnerabilità data da terze parti che inseriscono istruzioni dannose all'interno di documenti a cui il sistema di IA generativa può accedere e che può elaborare. La protezione dal prompt injection indiretto nei servizi di Dynamics 365 e Power Platform deve essere implementata obbligatoriamente. Altre informazioni sugli attacchi indiretti e su come usare Sicurezza dei contenuti di Azure AI per rilevarli.

In che modo Microsoft testa e convalida la qualità di Copilot, inclusa la protezione dal prompt injection e le risposte fondate?

Ogni nuova iterazione del prodotto e del modello linguistico di Copilot deve superare una revisione interna dell'intelligenza artificiale responsabile prima di poter essere lanciata. Prima del rilascio, utilizziamo un processo chiamato "red teaming" (in cui un team simula un attacco nemico, trovando e sfruttando i punti deboli per aiutare l'organizzazione a migliorare le proprie difese) per valutare i potenziali rischi in contenuti dannosi, scenari di jailbreak e risposte fondate. Dopo il rilascio, utilizziamo test automatizzati e strumenti di valutazione manuali e automatici per valutare la qualità delle risposte di Copilot.

In che modo Microsoft migliora il modello di base e misura i miglioramenti nelle risposte fondate?

Nel contesto dell'intelligenza artificiale, in particolare dell'intelligenza artificiale che si occupa di modelli linguistici come quella su cui si basa Copilot, il grounding aiuta l'intelligenza artificiale a generare risposte che risultano più pertinenti e sensate nel mondo reale. Il grounding aiuta a garantire che le risposte dell'IA siano basate su informazioni affidabili e siano il più accurate e pertinenti possibile. Le metriche della risposta fondata valutano l'accuratezza con cui i fatti dichiarati nel contenuto di base fornito al modello sono rappresentati nella risposta finale.

I modelli di fondazione come GPT-4 sono migliorati dalle tecniche RAG (Retrieval Augmented Generation). Queste tecniche consentono ai modelli di utilizzare più informazioni di quelle su cui si è basato il loro training per comprendere lo scenario di un utente. La tecnica RAG funziona identificando innanzitutto i dati pertinenti allo scenario, in modo simile a come un motore di ricerca identifica le pagine Web pertinenti per i termini di ricerca dell'utente. Utilizza più approcci per identificare quale contenuto è pertinente alla richiesta dell'utente e dovrebbe essere utilizzato per fondare la risposta. Gli approcci includono la ricerca in diversi tipi di indici, come gli indici invertiti, che utilizzano tecniche di recupero delle informazioni come la corrispondenza dei termini, o gli indici vettoriali, che utilizzano confronti di distanze vettoriali per la somiglianza semantica. Dopo aver identificato i documenti rilevanti, la RAG trasmette i dati al modello insieme alla conversazione corrente, fornendo al modello più contesto per comprendere meglio le informazioni di cui già dispone e generare una risposta fondata nel mondo reale. Infine, la RAG controlla la risposta per assicurarsi che sia supportata dal contenuto di origine fornito al modello. Le funzionalità di IA generativa di Copilot incorporano la tecnica RAG in diversi modi. Un esempio è la chat con l'utilizzo dei dati, dove un chatbot è basato sulle origini dati del cliente.

Un altro modo per migliorare i modelli di base è noto con il termine di fine-tuning, ovvero perfezionamento. Un ampio set di dati di coppie domanda-risposta viene mostrato a un modello di base per potenziarne il training originale con nuovi campioni mirati a uno scenario specifico. Il modello può quindi essere distribuito come modello separato, perfezionato per quello scenario. Mentre il grounding consiste nel rendere la conoscenza dell'IA pertinente al mondo reale, il fine-tuning consiste nel rendere la conoscenza dell'IA più specifica per un particolare compito o dominio. Microsoft utilizza il fine-tuning in molti modi. Ad esempio, utilizziamo la creazione del flusso di Power Automate da descrizioni del linguaggio naturale fornite dall'utente.

Copilot soddisfa i requisiti di conformità normativa?

Microsoft Copilot fa parte dell'ecosistema Dynamics 365 e Power Platform e soddisfa gli stessi requisiti di conformità normativa. Per altre informazioni sulle certificazioni normative di servizi Microsoft, visita il Service Trust Portal. Copilot rispetta inoltre il nostro impegno per un'intelligenza artificiale responsabile, che trovi descritto nel nostro Standard sull'intelligenza artificiale responsabile. Man mano che la normativa in materia di intelligenza artificiale si evolve, Microsoft continua a uniformarsi per soddisfare i nuovi requisiti.

Altre informazioni sulla disponibilità, l'ubicazione dei dati dei clienti e la conformità di Dynamics 365, Power Platform e Copilot con requisiti specifici del settore, delle aree geografiche e globali per la gestione dei dati.

Altre informazioni

Copilot nelle app Dynamics 365 e in Power Platform

Prodotto Funzionalità Ambienti gestiti obbligatorio? Come disattivare la funzionalità
AI Builder Scenari in anteprima No Scenari in anteprima
Copilot Studio Conoscenza generale dell'intelligenza artificiale No Sicurezza e governance di Copilot Studio
Copilot Studio Creare e modificare gli argomenti con Copilot No Sicurezza e governance di Copilot Studio
Copilot Studio Azioni generative No Sicurezza e governance di Copilot Studio
Copilot Studio Risposte generative No Sicurezza e governance di Copilot Studio
Dynamics 365 Business Central Tutti (vedi l'elenco completo su aka.ms/bcAI) No Attiva funzionalità
Dynamics 365 Customer Insights - Data Creare segmenti con Copilot in Customer Insights - Data (anteprima) No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Panoramica del report di preparazione dei dati (anteprima) No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Ottenere risposte alle domande sulle funzionalità da Copilot (anteprima) No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Interagire con i dati utilizzando Copilot in Customer Insights No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Visualizzare la configurazione del sistema No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Migliorare l'apprendimento e aumentare la produttività con Copilot (anteprima) No La disponibilità di questo copilota nel tuo ambiente è determinata dalle impostazioni dell'amministratore di Power Platform. Informazioni su come aggiungere Copilot per le app per dispositivi mobili.


Questa funzionalità è un "copilota di app in Customer Insights - Journeys" ed è per questo motivo che è abilitata nell'interfaccia di amministrazione di Power Platform. Altre informazioni: Domande frequenti sull'intelligenza artificiale responsabile
Dynamics 365 Customer Insights - Journeys Creare percorsi con l'assistenza dell'intelligenza artificiale No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Aggiornare e perfezionare il tuo messaggio No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Dare uno stile ai messaggi e-mail con temi assistiti dall'intelligenza artificiale No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Scegliere i clienti appropriati usando l'assistenza per le query

No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilizzare l'intelligenza artificiale per avviare la creazione di messaggi e-mail No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Usare le immagini nel contenuto No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Service Comporre un messaggio e-mail No Gestire le funzionalità di Copilot in Customer Service
Dynamics 365 Customer Service Creare una bozza di risposta in chat No Gestire le funzionalità di Copilot in Customer Service
Dynamics 365 Customer Service Rispondere a domande No Gestire le funzionalità di Copilot in Customer Service
Dynamics 365 Customer Service Riepilogare un caso e una conversazione No Gestire le funzionalità di Copilot in Customer Service
Power Apps Creare app attraverso la conversazione No Gestire le impostazioni delle funzionalità
Power Apps Assistenza di Copilot per la compilazione di moduli nelle app per dispositivi mobili No Gestire le impostazioni delle funzionalità
Power Apps Scrivere una bozza di testo di input, ben scritto, con Copilot No, licenza utente premium Scrivere una bozza di testo di input, ben scritto, con Copilot
Power Apps Da Excel a tabella No Gestire le impostazioni delle funzionalità
Power Apps Usare il linguaggio naturale per modificare un'app con il pannello Copilot No Gestire le impostazioni delle funzionalità
Power Automate Copilot nei flussi cloud nella home page e nella finestra di progettazione (per i dettagli, vedi Introduzione a Copilot nei flussi cloud) No Contattare il supporto per eseguire uno script di PowerShell.
Power Pages Tutte (per i dettagli, vedi Panoramica di Copilot in Power Pages) No Disattivare Copilot in Power Pages

Altre informazioni sono disponibili in Domande frequenti sulla condivisione dei dati facoltativa per le funzionalità di intelligenza artificiale di Copilot in Dynamics 365 e Power Platform.

Disponibilità a livello di area/lingua

Disponibilità internazionale di Copilot

Spostamento di dati tra aree geografiche

Sicurezza in Microsoft

Privacy in Microsoft

Informativa sulla privacy di Microsoft

Intelligenza artificiale responsabile