Comparteix a través de


Preguntes freqüents sobre la seguretat i privadesa de les dades del Copilot per al Dynamics 365 i el Power Platform

Les característiques del Copilot per al Dynamics 365 i el Power Platform segueixen un conjunt de pràctiques bàsiques de seguretat i privadesa i la norma d'IA responsable de Microsoft. Les dades del Dynamics 365 i el Power Platform estan protegides per controls exhaustius de privadesa, seguretat i compliment capdavanters al sector.

El Copilot es basa en Microsoft Azure OpenAI Service i s'executa completament al núvol de l'Azure. L'Azure OpenAI ofereix disponibilitat regional i filtratge de contingut d'IA responsable. El Copilot utilitza models d'OpenAI amb totes les capacitats de seguretat del Microsoft Azure. OpenAI és una organització independent. No compartim les vostres dades amb OpenAI.

Les característiques del Copilot no estan disponibles en totes les geografies i les llengües de l'Azure. Segons on s'allotgi el vostre entorn, pot ser que hàgiu de permetre el trasllat de dades entre diferents zones geogràfiques per utilitzar-les. Per obtenir més informació, vegeu els articles enumerats a Trasllat de dades entre zones geogràfiques.

Què passa amb les meves dades quan faig servir el Copilot?

Teniu el control de les vostres dades. Microsoft no comparteix les vostres dades amb tercers tret que hàgiu donat permís per fer-ho. A més, no utilitzem les vostres dades de client per entrenar el Copilot o les seves funcions d'IA, tret que doneu el consentiment perquè ho fem. El Copilot s'adhereix als permisos i polítiques de dades existents, i les respostes que us dona es basen únicament en dades a les quals pugueu accedir personalment. Per obtenir més informació sobre com podeu controlar les dades i com es gestionen les dades, vegeu els articles que s'enumeren a Copilot a les aplicacions del Dynamics 365 i el Power Platform.

El Copilot supervisa si hi ha usos abusius o perjudicials del servei amb processament transitori. No emmagatzemem de les entrades i les sortides del Copilot ni en portem a terme una revisió visual amb la finalitat de detectar abusos.

Com fa servir el Copilot les meves dades? 

Cada servei o funció utilitza el Copilot en funció de les dades que proporcioneu o configureu perquè el Copilot les processi.

Les sol·licituds (entrades) i les respostes de Copilot (sortides o resultats):

  • NO estan disponibles per a altres clients.

  • NO s'utilitzen per entrenar o millorar cap producte o servei de tercers (com ara models d'OpenAI).

  • NO s'utilitzen per entrenar o millorar els models d'IA de Microsoft tret que l'administrador de l'inquilí opti per compartir dades amb nosaltres.

Més informació sobre la privadesa i la seguretat de les dades de l'Azure OpenAI Service. Per obtenir més informació sobre com Microsoft protegeix i utilitza les vostres dades de manera més general, llegiu la nostra Declaració de privadesa.

On van les meves dades?

La confiança és una de les bases de Microsoft. Tenim un compromís amb la seguretat, la privadesa i el compliment en tot el que fem, i el nostre plantejament amb l'IA no és diferent. Les dades del client, incloses les entrades i les sortides de Copilot, s'emmagatzemen dins del límit de confiança del Microsoft Cloud.

En alguns escenaris, com ara funcions basades en el Bing i complements del Copilot de tercers, és possible que les dades del client es transmetin fora del límit de confiança del Microsoft Cloud.

El Copilot pot accedir a contingut encriptat?

Les dades es proporcionen al Copilot en funció del nivell d'accés de l'usuari actual. Si un usuari té accés a les dades xifrades al Dynamics 365 i el Power Platform i les facilita al Copilot, el Copilot hi podrà accedir.

Com protegeix el Copilot les dades dels clients?

El posicionament de Microsoft per proporcionar una IA preparada per a l'empresa és únic. El Copilot es basa en Azure OpenAI Service i compleix els nostres compromisos de privadesa, seguretat i legals existents amb els nostres clients.

  • Es fonamenta en l'enfocament exhaustiu de Microsoft per garantir la seguretat, la privadesa i el compliment de les normatives. El Copilot està integrat en serveis de Microsoft com ara el Dynamics 365 i el Power Platform i n'hereta les polítiques i els processos de seguretat, privadesa i compliment de normatives, com ara l'autenticació multifactorial i els límits de compliment.

  • Diverses formes de protecció de les dades organitzatives. Les tecnologies de servei xifren el contingut de l'organització en repòs i en trànsit per aconseguir una seguretat robusta. Les connexions es protegeixen amb el protocol de seguretat de la capa de transport (TLS) i les transferències de dades entre el Dynamics 365, Power Platform, i l'Azure OpenAI es produeixen a través de la xarxa troncal de Microsoft, fet que garanteix la fiabilitat i la seguretat. Més informació sobre l'encriptació al Microsoft Cloud.

  • S'ha dissenyat per protegir les vostres dades tant al nivell de l'inquilí com de l'entorn. Som conscients que la fuita de dades preocupa els clients. Els models d'IA de Microsoft no s'entrenen a partir de les dades del vostre inquilí o les vostres sol·licituds ni aprenen d'aquestes dades, tret que l'administrador de l'inquilí hagi optat per compartir les dades amb nosaltres. Dins dels vostres entorns, podeu controlar l'accés mitjançant els permisos que configureu. Els mecanismes d'autenticació i autorització segreguen les sol·licituds al model compartit entre inquilins. El Copilot utilitza dades a les quals només vós podeu accedir mitjançant la mateixa tecnologia que hem fet servir des de fa anys per protegir les dades dels clients.

Les respostes del Copilot sempre són objectives?

De la mateixa manera que amb l'IA generativa, no es garanteix que les respostes del Copilot siguin 100 % objectives. Mentre continuem millorant les respostes a les consultes basades en fets, heu de seguir aplicant el vostre criteri i revisar les respostes abans d'enviar-les a altres persones. El Copilot proporciona esborranys i resums molt útils per ajudar-vos a fer més feina, però és totalment automàtic. Sempre teniu la possibilitat de revisar el contingut generat per IA.

Els nostres equips treballen per resoldre problemes de manera proactiva, com ara la manca informació i la informació enganyosa, el bloqueig del contingut, la seguretat de les dades i la promoció de contingut perniciós o discriminatori, d'acord amb els nostres principis d'IA responsable.

També oferim instruccions en l'experiència de l'usuari per garantir l'ús responsable del contingut generat per IA i les accions suggerides.

  • Instruccions i sol·licituds. Quan utilitzeu el Copilot, se us recorda mitjançant sol·licituds i altres elements d'informació que heu de revisar i editar les respostes segons calgui i comprovar manualment la informació, les dades i el text per assegurar que siguin acurats abans d'utilitzar el contingut generat per IA.

  • Orígens citats. Quan sigui necessari, el Copilot cita les seves fonts d'informació, públiques o internes, per tal de que les pugueu revisar i confirmar-ne les respostes.

Per obtenir més informació, vegeu les preguntes freqüents sobre l'IA responsable per al vostre producte a Microsoft Learn.

Com bloqueja el Copilot el contingut perjudicial?

Azure OpenAI Service inclou un sistema de filtratge de contingut que funciona juntament amb uns models bàsics. Els models de filtratge de contingut per a les categories Odi i equitat, Sexual, Violència i Autolesió s'han entrenat i provat específicament en diversos idiomes. Aquest sistema funciona executant tant la sol·licitud d'entrada com la resposta mitjançant models de classificació dissenyats per identificar i bloquejar la producció de contingut nociu.

El contingut perjudicial relacionat amb la categoria d'Odi i equitat fa referència a qualsevol contingut que utilitzi llenguatge pejoratiu o discriminatori d'acord amb atributs com ara raça, ètnia, nacionalitat, identitat i expressió de gènere, orientació social, religió, estat d'immigració, estat de capacitats, aparença personal i mida del cos. L'equitat té com a objectiu assegurar-se que els sistemes d'IA tractin tots els grups de persones de manera equitativa, sense contribuir a les desigualtats socials existents. El contingut sexual implica tractar qüestions com ara els òrgans reproductius humans, les relacions, romàntiques, actes representats en termes eròtics o afectius, embaràs, actes sexuals físics, inclosos els representats com a actes d'agressió o violència sexual, prostitució, pornografia i abús. La categoria de Violència descriu el llenguatge relacionada amb accions físiques destinades a fer mal o matar, incloent-hi accions, armes i elements relacionats. El llenguatge de la categoria d'Autolesió fa referència a accions deliberades orientades a l'autolesió o al suïcidi.

Més informació sobre el filtratge de contingut de l'Azure OpenAI.

El Copilot bloqueja les injeccions de sol·licituds (atacs de jailbreak)?

Els atacs de jailbreak són indicacions de l'usuari dissenyades per provocar que el model d'IA generativa mostri comportaments que ha estat entrenat per evitar o que infringeixi que se li han indicat que ha de seguir. Els serveis del Dynamics 365 i el Power Platform són necessaris per protegir-vos contra injeccions de sol·licituds. Més informació sobre els atacs de jailbreak i com utilitzar la seguretat del contingut d'IA de l'Azure per detectar-los.

El Copilot bloqueja les injeccions de sol·licituds indirectes (atacs indirectes)?

Els atacs indirectes, que també es coneixen com a atacs de sol·licituds indirectes o atacs d'injecció de sol·licituds entre dominis, són una vulnerabilitat potencial mitjançant la qual els atacants inclouen instruccions malicioses en documents a les quals el sistema d'IA generativa por accedir i que pot processar. Els serveis del Dynamics 365 i el Power Platform són necessaris per protegir-vos contra injeccions de sol·licituds indirectes. Més informació sobre els atacs indirectes i com utilitzar la seguretat del contingut d'IA de l'Azure per detectar-los.

Com prova i valida Microsoft la qualitat del Copilot, incloent-hi la protecció contra la injecció de sol·licituds i les respostes fonamentades?

Cada iteració nova de producte i model de llenguatge del Copilot ha de passar una revisió interna d'IA responsable perquè es pugui publicar. Abans de la publicació, s'utilitza un procés anomenat "equip vermell" (en el qual un equip simula un atac enemic i cerca i comprova punts febles per ajudar l'organització a millorar les seves defenses) per valorar els possibles riscs de contingut perjudicial, casos de jailbreak i respostes fonamentades. Després de la publicació, utilitzem proves automatitzades i eines d'avaluació manuals i automatitzades per avaluar la qualitat de les respostes del Copilot.

Com millora Microsoft el model base i com avalua les mesures en les respostes fonamentades?

En el context de l'IA, especialment l'IA que s'ocupa de models de llenguatge com el que serveix de base per al Copilot la fonamentació ajuda l'IA a generar respostes més rellevants i que tenen sentit al món real. La fonamentació ajuda a garantir que les respostes de l'IA estiguin basades en informació fiable i siguin tan precises i rellevants com sigui possible. Les mètriques de respostes fonamentades valoren la precisió de les dades que s'indiquen al contingut fonamentat que s'ha proporcionat al model i que es representen a la resposta final.

Els models de fonamentació, com ara GPT-4, es milloren mitjançant tècniques de generació augmentada amb la recuperació (RAG). Aquestes tècniques permeten als models utilitzar més informació de la que s'ha utilitzat per entrenar-los per comprendre l'escenari d'un usuari. RAG funciona identificant primer les dades rellevants per a l'escenari, de manera semblant a com un motor de cerca identifica pàgines web rellevants per als termes de cerca de l'usuari. Utilitza diverses maneres d'identificar el contingut rellevant per a la sol·licitud de l'usuari i s'ha d'utilitzar per fonamentar la resposta. Entre els mètodes s'inclouen la cerca en diferents tipus d'índexs, com ara els índexs invertits mitjançant tècniques de recuperació de la informació, com ara la coincidència de termes, o els índexs vectorials utilitzant comparacions de distàncies vectorials per a la similitud semàntica. Després d'identificar els documents rellevants, RAG passa les dades al model juntament amb la conversa actual, fet que aporta al model més context per comprendre millor la informació de la qual ja disposa i generar una resposta fonamentada en el món real. Per acabar, RAG comprova la resposta per assegurar-se que és compatible amb el contingut d'origen que ha proporcionat al model. Les característiques de l'IA generativa del Copilot incorporen RAG de diverses maneres. Un exemple és el xat amb ús de dades, en què un bot de xat es fonamenta amb les fonts de dades pròpies del client.

Un altre mètode per millorar els models de fonamentació es coneix com a ajustament fi. Es mostra un gran conjunt de dades de parelles de consulta-resposta a un model de fonamentació per augmentar el seu entrenament original amb exemples nous adreçats a un escenari específic. D'aquesta manera, el model es pot implementar com un model independent, ajustat per a l'escenari en qüestió. Mentre que la fonamentació consisteix a aconseguir que els coneixements de l'IA siguin rellevants per al món real, l'ajustament fi consisteix a aconseguir que els coneixements de l'IA siguin més específics per a una tasca o un domini concrets. Microsoft utilitza l'ajustament fi de diverses maneres. Per exemple, utilitzem la creació de fluxos del Power Automate a partir de descripcions de llenguatge natural proporcionades per l'usuari.

El Copilot compleix els requisits de compliment de les normatives?

El Microsoft Copilot forma part de l'ecosistema del Dynamics 365 i el Power Platform o compleix els mateixos requisits de compliment de normatives. Per obtenir més informació sobre les certificacions normatives dels serveis de Microsoft, aneu al Portal de confiança del servei. A més, el Copilot compleix el nostre compromís pel que fa a l'IA responsable, que es posa en pràctica mitjançant la nostra Norma d'IA responsable. Ja que les normatives en l'àmbit de l'IA evolucionen constantment, Microsoft segueix adaptant-se i responent a requisits nous.

Més informació sobra la disponibilitat del Dynamics 365, el Power Platform i el Copilot, les ubicacions de les dades dels clients i el compliment dels requisits globals, regionals i específics del sector per gestionar les dades.

Més informació

El Copilot a les aplicacions del Dynamics 365 i al Power Platform

Producte Característica Es necessiten entorns administrats? Com desactivar la funció
AI Builder Escenaris en versió preliminar No Escenaris en versió preliminar
Dynamics 365 Business Central Tot (vegeu la llista completa a aka.ms/bcAI.) No Activar les funcions
Dynamics 365 Customer Insights - Data Crear segments amb el Copilot per al Customer Insights - Data (versió preliminar) No Customer Insights - Data té el seu indicador propi per a totes les seves funcions del Copilot de l'Azure OpenAI.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Data
Dynamics 365 Customer Insights - Data Informació general d'informes de preparació de dades (versió preliminar) No Customer Insights - Data té el seu indicador propi per a totes les seves funcions del Copilot de l'Azure OpenAI.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Data
Dynamics 365 Customer Insights - Data Obtenir respostes a preguntes sobre les capacitats del Copilot (versió preliminar) No Customer Insights - Data té el seu indicador propi per a totes les seves funcions del Copilot de l'Azure OpenAI.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Data
Dynamics 365 Customer Insights (dades) Disposar d'un diàleg amb dades mitjançant el Copilot al Customer Insights No Customer Insights - Data té el seu indicador propi per a totes les seves funcions del Copilot de l'Azure OpenAI.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Data
Dynamics 365 Customer Insights - Data Veure la configuració del sistema No Customer Insights - Data té el seu indicador propi per a totes les seves funcions del Copilot de l'Azure OpenAI.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Data
Dynamics 365 Customer Insights - Journeys El Copilot us ajuda a aprendre i a fer més (revisió) No Si aquest copilot està disponible al vostre entorn, ve determinat per la configuració de l'administrador del Power Platform. Obteniu informació sobre com afegir el Copilot per a aplicacions basades en models.


Aquesta funcionalitat és el "copilot per a aplicacions al Customer Insights - Journeys" i per això està habilitada al centre d'administració del Power Platform. Més informació: Preguntes freqüents sobre IA responsable
Dynamics 365 Customer Insights - Journeys Crear recorreguts amb assistència d'IA No El Customer Insights - Journeys té els seus propis indicadors per a les funcions del Copilot.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Actualitzar i perfeccionar el vostre missatge No El Customer Insights - Journeys té els seus propis indicadors per a les funcions del Copilot.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Aplicar estils als correus electrònics amb temes assistits per IA No El Customer Insights - Journeys té els seus propis indicadors per a les funcions del Copilot.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Adreçar-vos als clients adequats mitjançant l'ajuda per a consultes

No El Customer Insights - Journeys té els seus propis indicadors per a les funcions del Copilot.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilitzar l'IA per posar en marxa la creació de correus electrònics No El Customer Insights - Journeys té els seus propis indicadors per a les funcions del Copilot.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilitzar imatges al contingut No El Customer Insights - Journeys té els seus propis indicadors per a les funcions del Copilot.

Més informació: Donar el consentiment per utilitzar el Copilot al Customer Insights - Journeys
Power Apps Crear aplicacions mitjançant converses No Administrar la configuració de característiques
Power Apps Assistència del Copilot per emplenar formularis en aplicacions basades en models No Administrar la configuració de característiques
Power Apps Esborrany ben escrit, text d'entrada amb el Copilot No, llicència d'usuari prèmium Esborrany ben escrit, text d'entrada amb el Copilot
Power Apps Excel a taula No Administrar la configuració de característiques
Power Apps Utilitzar llenguatge natural per editar una aplicació mitjançant la subfinestra del Copilot No Administrar la configuració de característiques
Power Automate Copilot als fluxos del núvol a la pàgina inicial i al dissenyador (Per obtenir més informació, vegeu Com començar amb el Copilot als fluxos del núvol). No Contactar amb el servei tècnic per executar un script del PowerShell.
Power Pages Tot (vegeu la informació general de Copilot a Power Pages per obtenir més informació). No Desactivar el Copilot al Power Pages

Disponibilitat regional i d'idiomes

Disponibilitat internacional del Copilot

Trasllat de dades entre zones geogràfiques

Seguretat a Microsoft

Privadesa a Microsoft

Declaració de privadesa de Microsoft

IA responsable