Preguntas máis frecuentes sobre a privacidade e seguranza dos datos de Copilot en Dynamics 365 e Power Platform
As funcionalidades de Copilot para Dynamics 365 e Power Platform seguen un conxunto de prácticas de seguranza e privacidade básicas, así como a norma sobre IA responsable de Microsoft. Os datos de Dynamics 365 e Power Platform están protexidos por controis de cumprimento, seguridade e privacidade completos e líderes no sector.
Copilot está baseado no servizo Microsoft Azure OpenAI e execútase completamente na nube de Azure. Azure OpenAI ofrece dispoñibilidade rexional e filtrado responsable de contido de IA. Copilot usa modelos de OpenAI con todas as capacidades de seguridade de Microsoft Azure. OpenAI é unha organización independente. Non compartimos os seus datos con OpenAI.
As funcións de Copilot non están dispoñibles en todas as zonas xeográficas e idiomas de Azure. Dependendo de onde estea aloxado o seu ambiente, é posible que teña que permitir o movemento de datos entre zonas xeográficas para utilizalos. Para obter máis información, consulte os artigos que aparecen en Movemento de datos entre zonas xeográficas.
Que pasa cos meus datos cando uso Copilot?
Vostede ten o control dos seus datos. Microsoft no comparte os seus datos con terceiros a menos que teña concedido permiso para facelo. Ademais, non utilizamos os seus datos de cliente para adestrar a Copilot ou as súas funcionalidades de IA, a non ser que vostede dea o consentimento para que o fagamos. Copilot cumpre cos permisos e políticas de datos existentes, e as súas respostas a vostede se baséanse unicamente nos datos aos que vostede persoalmente pode acceder. Para obter máis información sobre como pode controlar os seus datos e como se manexan os seus datos, consulte os artigos que aparecen en Copilot en aplicacións de Dynamics 365 e Power Platform.
Copilot supervisa os usos abusivos ou prexudiciais do servizo con procesamento transitorio. Non almacenamos nin realizamos revisións presenciais das entradas e saídas de Copilot con fins de control de abusos.
Como usa Copilot os meus datos?
Cada servizo ou función usa Copilot en función dos datos que vostede proporcione ou configure para que os procese Copilot.
As súas solicitudes (entradas) e respostas de Copilot (saídas ou resultados):
NON están dispoñibles para outros clientes.
NON se utilizan para adestrar ou mellorar produtos ou servizos de terceiros (como modelos de OpenAI).
NON se usan para adestrar ou mellorar os modelos de IA de Microsoft, a menos que o administrador do arrendatario acepte compartir os datos connosco. Obteña máis información en Preguntas frecuentes para compartir datos opcionais para as funcionalidades de IA de Copilot en Dynamics 365 e Power Platform.
Máis información sobre a privacidade e a seguridade do servizo Azure OpenAI. Para obter máis información sobre como Microsoft protexe e utiliza os seus datos de xeito máis xeral, lea a nosa Declaración de privacidade.
Onde van os meus datos?
Microsoft baséase na confianza. Estamos comprometidos coa seguridade, a privacidade e o cumprimento en todo o que facemos, e o noso enfoque da IA non é diferente. Os datos do cliente, incluídas as entradas e saídas de Copilot, almacénanse dentro do límite de confianza de Microsoft Cloud.
Nalgunhas situacións, como as funcións baseadas en Bing e complementos de copiloto de terceiros, os datos dos clientes poden transmitirse fóra do límite de confianza de Microsoft Cloud.
Pode Copilot acceder ao contido cifrado?
Os datos proporciónanse a Copilot en función do nivel de acceso do usuario actual. Se un usuario ten acceso aos datos cifrados en Dynamics 365 e Power Platform, e o usuario os proporciona a Copilot, Copilot pode acceder a eles.
Como protexe Copilot os datos dos clientes?
Microsoft está nunha posición única para ofrecer IA preparada para empresas. Copilot baséase no servizo Azure OpenAI e cumpre cos nosos compromisos de privacidade, seguranza e cumprimento normativo cos nosos clientes.
Baseado no enfoque integral de Microsoft da seguridade, a privacidade e o cumprimento. Copilot está integrado en servizos de Microsoft como Dynamics 365 e Power Platform, e herda as súas políticas e procesos de seguridade, privacidade e cumprimento, como a autenticación multifactor e os límites de cumprimento.
Múltiples formas de protección para salvagardar os datos da organización. As tecnoloxías do servizo cifran o contido da organización en repouso e en tránsito para conseguir unha seguridade robusta. As conexións están protexidas con seguridade da capa de transporte (TLS) e as transferencias de datos entre Dynamics 365, Power Platform e Azure OpenAI prodúcense a través da rede troncal de Microsoft, o que garante tanto a fiabilidade como a seguridade. Máis información sobre o cifrado en Microsoft Cloud.
Arquitectura para protexer os seus datos tanto a nivel de arrendatario como de ambiente. Sabemos que a fuga de datos é unha preocupación para os clientes. Os modelos de IA de Microsoft non están adestrados e non aprenden dos datos dos seus arrendatarios ou das súas solicitudes, a menos que o seu administrador de arrendatarios optase por compartir datos connosco. Dentro dos seus ambientes, pode controlar o acceso a través dos permisos que configure. Os mecanismos de autenticación e autorización segregan as solicitudes ao modelo compartido entre os arrendatarios. Copilot utiliza datos aos que só vostede pode acceder, usando a mesma tecnoloxía que levamos anos usando para protexer os datos dos clientes.
As respostas de Copilot baséanse sempre en feitos?
Como con calquera IA xerativa, as respostas de Copilot non están baseadas en feitos ao 100 %. Aínda que seguimos mellorando as respostas ás consultas baseadas en feitos, vostede aínda debe usar o seu criterio e revisar os resultados antes de envialos a outros. Copilot ofrece borradores e resumos útiles para axudarlle a facer máis, pero é totalmente automático. Vostede sempre ten a oportunidade de revisar o contido xerado pola IA.
Os nosos equipos están traballando para abordar de forma proactiva problemas, como a información errónea e a desinformación, o bloqueo de contido, a seguridade dos datos e a promoción de contidos daniños ou discriminatorios de acordo cos nosos principios de IA responsable.
Tamén ofrecemos orientación na experiencia do usuario para reforzar o uso responsable do contido xerado pola IA e as accións suxeridas.
Instrucións e indicacións. Ao utilizar Copilot, as instrucións e outros elementos didácticos lémbranlle que debe revisar e editar as respostas segundo sexa necesario e comprobar manualmente a exactitude dos feitos, os datos y o texto antes de utilizar o contido xerado por IA.
Fontes citadas. Se é o caso, Copilot cita as súas fontes de información, xa sexan públicas ou internas, para que poida revisalas vostede mesmo para confirmar as súas respostas.
Para obter máis información, consulte as preguntas frecuentes sobre IA responsable do seu produto en Microsoft Learn.
Como bloquea Copilot contidos daniños?
O servizo Azure OpenAI inclúe un sistema de filtrado de contido que funciona xunto aos modelos principais. Os modelos de filtrado de contido das categorías Odio e equidade, Sexual, Violencia e Autolesión foron adestrados e probados especificamente en varios idiomas. Este sistema funciona executando tanto a solicitude de entrada como a resposta mediante modelos de clasificación deseñados para identificar e bloquear a saída de contido daniño.
Os danos relacionados co odio e a equidade fan referencia a calquera contido que utilice unha linguaxe pexorativa ou discriminatoria baseada en atributos como a raza, a etnia, a nacionalidade, a identidade e a expresión de xénero, a orientación sexual, a relixión, o estado migratorio, o estado de capacidade, o aspecto persoal e o tamaño corporal. A equidade preocúpase de asegurarse de que os sistemas de IA traten a todos os grupos de persoas de forma equitativa sen contribuír ás desigualdades sociais existentes. O contido sexual inclúe conversas sobre órganos reprodutores humanos, relacións románticas, actos retratados en termos eróticos ou afectuosos, embarazo, actos sexuais físicos, incluídos os que se presentan como agresión ou acto forzado de violencia sexual, prostitución, pornografía e abuso. A violencia describe a linguaxe relacionada con accións físicas destinadas a danar ou matar, incluíndo accións, armas e entidades relacionadas. A linguaxe de autolesión refírese a accións deliberadas que teñen como finalidade ferirse ou suicidarse.
Máis información sobre o filtrado de contido de Azure OpenAI.
Copilot bloquea as inxeccións de indicacións (ataques de jailbreak)?
Os ataques de jailbreak son indicacións deseñadas para provocar que o modelo de IA xerativa se comporte de xeitos que foi adestrado para evitar ou incumpra as regras que se lle indicou que debía seguir. Os servizos de Dynamics 365 e Power Platform requírense para protexer contra a inxección de indicacións. Máis información sobre os ataques de jailbreak e como usar a seguridade de contido de IA de Azure para detectalos.
Copilot bloquea as inxeccións de indicacións indirectas (ataques indirectos)?
Os ataques indirectos, tamén coñecidos como ataques de indicacións indirectos ou ataques de inxección de avisos entre dominios, son unha vulnerabilidade potencial. onde terceiros colocan instrucións maliciosas dentro dos documentos aos que o sistema de IA xerativa pode acceder e que pode procesar. Os servizos de Dynamics 365 e Power Platform requírense para protexer contra a inxeccións de indicacións indirectas. Máis información sobre os ataques indirectos e como usar a seguridade de contido de IA de Azure para detectalos.
Como proba e valida Microsoft a calidade de Copilot, incluída a protección de inxección de indicacións e as respostas fundamentadas?
Cada novo produto Copilot e cada iteración do modelo lingüístico deben pasar unha revisión interna de IA responsable antes de poder lanzarse. Antes do lanzamento, usamos un proceso chamado "red teaming" (no que un equipo simula un ataque inimigo, atopando e explotando puntos débiles para axudar á organización a mellorar as súas defensas) para avaliar os riscos potenciais en contidos daniños, situacións de jailbreak e respostas fundamentadas. Despois do lanzamento, utilizamos probas automatizadas e ferramentas de avaliación manuais e automatizadas para avaliar a calidade das respostas de Copilot.
Como mellora Microsoft o modelo de base e mide as melloras nas respostas fundamentadas?
No contexto da IA, especialmente a IA que se ocupa de modelos lingüísticos como o modelo no que se basea Copilot, a fundamentación axuda á IA a xerar respostas que sexan máis relevantes e teñan sentido no mundo real. A fundamentación axuda a garantir que as respostas da IA se baseen en información fiable e sexan o máis precisas e relevantes posible. As métricas de resposta fundamentada avalían a precisión con que se representan na resposta final os feitos indicados no contido fundamentado que se proporciona ao modelo.
Os modelos de base como GPT-4 melloran as técnicas de xeración aumentada de recuperación (RAG). Estas técnicas permiten aos modelos utilizar máis información da que foron adestrados para comprender a situación dun usuario. RAG funciona primeiro identificando os datos que son relevantes para a situación, de forma similar a como un buscador identifica as páxinas web que son relevantes para os termos de busca do usuario. Usa varios enfoques para identificar que contido é relevante para a solicitude do usuario e debe usarse para fundamentar a resposta. Os enfoques inclúen a busca con diferentes tipos de índices, como índices invertidos mediante técnicas de recuperación de información como a correspondencia de termos ou índices vectoriais que utilizan comparacións de distancias vectoriais para semellanza semántica. Despois de identificar os documentos relevantes, RAG pasa os datos ao modelo xunto coa conversación actual, dándolle ao modelo máis contexto para comprender mellor a información que xa ten e xerar unha resposta que se basea no mundo real. Finalmente, RAG comproba a resposta para asegurarse de que é compatible co contido de orixe que proporcionou ao modelo. As funcións de IA xerativa de Copilot incorporan RAG de varias maneiras. Un exemplo é o uso de chat con datos, onde un bot de chat está conectado ás fontes de datos propias do cliente.
Outro método para mellorar os modelos fundamentais coñécese como axuste fino. Un gran conxunto de datos de parellas de consulta-resposta móstrase a un modelo fundamental para aumentar o seu adestramento orixinal con novas mostras dirixidas a unha situación específica. Despois, o modelo pódese despregar como un modelo separado, un que estea axustado para esa situación. Aínda que a fundamentación consiste en facer que o coñecemento da IA sexa relevante para o mundo real, o axuste fino consiste en facer que o coñecemento da IA sexa máis específico para unha tarefa ou dominio en particular. Microsoft usa o axuste fino de varias maneiras. Por exemplo, usamos a creación de fluxos de Power Automate a partir de descricións en linguaxe natural proporcionadas polo usuario.
Copilot cumpre os requisitos para o cumprimento normativo?
Microsoft Copilot forma parte do ecosistema de Dynamics 365 e Power Platform e cumpre os mesmos requisitos para o cumprimento da normativa. Para obter máis información sobre as certificacións normativas dos servizos de Microsoft, vaia ao Portal de confianza de servizos. Ademais, Copilot cumpre co noso compromiso coa IA responsable, que se poñe en práctica a través do noso estándar de IA responsable. A medida que a regulación da IA evoluciona, Microsoft sigue adaptándose e respondendo aos novos requisitos.
Máis información
Copilot nas aplicacións de Dynamics 365 e Power Platform
Produto | Funcionalidade | Ambientes xestionados requiridos? | Como desactivar a funcionalidade |
---|---|---|---|
AI Builder | Escenarios en versión preliminar | Non | Escenarios en versión preliminar |
Copilot Studio | Coñecementos xerais da IA | Non | Seguranza e regulación de Copilot Studio |
Copilot Studio | Crear e editar temas con Copilot | Non | Seguranza e regulación de Copilot Studio |
Copilot Studio | Accións xenerativas | Non | Seguranza e regulación de Copilot Studio |
Copilot Studio | Respostas xerativas | Non | Seguranza e regulación de Copilot Studio |
Dynamics 365 Business Central | Todos (consulte a lista completa en aka.ms/bcAI). | Non | Activar funcionalidades |
Dynamics 365 Customer Insights - Data | Crear segmentos con Copilot para Customer Insights - Data (versión preliminar) | Non | Customer Insights - Data ten a súa propia marca para todas as súas funcionalidades de Copilot por Azure OpenAI. Máis información: Dar consentimento para usar Copilot en Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Visión xeral do informe de preparación de datos (versión preliminar) | Non | Customer Insights - Data ten a súa propia marca para todas as súas funcionalidades de Copilot por Azure OpenAI. Máis información: Dar consentimento para usar Copilot en Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Obter respostas a preguntas sobre capacidades de Copilot (versión preliminar) | Non | Customer Insights - Data ten a súa propia marca para todas as súas funcionalidades de Copilot por Azure OpenAI. Máis información: Dar consentimento para usar Copilot en Customer Insights - Data |
Dynamics 365 Customer Insights (Datos) | Ter un diálogo con datos usando Copilot en Customer Insights | Non | Customer Insights - Data ten a súa propia marca para todas as súas funcionalidades de Copilot por Azure OpenAI. Máis información: Dar consentimento para usar Copilot en Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Ver configuración do sistema | Non | Customer Insights - Data ten a súa propia marca para todas as súas funcionalidades de Copilot por Azure OpenAI. Máis información: Dar consentimento para usar Copilot en Customer Insights - Data |
Dynamics 365 Customer Insights - Journeys | Copilot axúdalle a aprender e facer máis (revisión) | Non | Se este copiloto está dispoñible no seu ambiente está determinado pola configuración do administrador de Power Platform. Aprenda como engadir Copilot para aplicacións baseadas en modelos. Esta capacidade é "copiloto da aplicación en Customer Insights - Journeys" e por iso está activada no centro de administración de Power Platform. Máis información: Preguntas frecuentes sobre IA responsable |
Dynamics 365 Customer Insights - Journeys | Crear viaxes usando asistencia de IA | Non | Customer Insights - Journeys ten as súas propias marcas para as funcionalidades de Copilot. Máis información: Dar consentimento para usar Copilot en Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Actualice e perfeccione a súa mensaxe | Non | Customer Insights - Journeys ten as súas propias marcas para as funcionalidades de Copilot. Máis información: Dar consentimento para usar Copilot en Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Deseñe os seus correos electrónicos con temas asistidos por IA | Non | Customer Insights - Journeys ten as súas propias marcas para as funcionalidades de Copilot. Máis información: Dar consentimento para usar Copilot en Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Dirixirse aos clientes axeitados mediante a asistencia de consulta |
Non | Customer Insights - Journeys ten as súas propias marcas para as funcionalidades de Copilot. Máis información: Dar consentimento para usar Copilot en Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Usar IA para iniciar a creación de correos electrónicos | Non | Customer Insights - Journeys ten as súas propias marcas para as funcionalidades de Copilot. Máis información: Dar consentimento para usar Copilot en Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Usar imaxes no seu contido | Non | Customer Insights - Journeys ten as súas propias marcas para as funcionalidades de Copilot. Máis información: Dar consentimento para usar Copilot en Customer Insights - Journeys |
Dynamics 365 Customer Service | Redactar un correo electrónico | Non | Xestionar funcionalidades de Copilot en Customer Service |
Dynamics 365 Customer Service | Redactar unha resposta de chat | Non | Xestionar funcionalidades de Copilot en Customer Service |
Dynamics 365 Customer Service | Responder a preguntas | Non | Xestionar funcionalidades de Copilot en Customer Service |
Dynamics 365 Customer Service | Resumir un caso e conversa | Non | Xestionar funcionalidades de Copilot en Customer Service |
Power Apps | Crear aplicacións a través da conversa | Non | Xestionar configuración da funcionalidade |
Power Apps | Asistencia de Copilot para encher formularios en aplicacións baseadas en modelos | Non | Xestionar configuración da funcionalidade |
Power Apps | Redactar texto de entrada ben escrito con Copilot | Non, licenza de usuario premium | Redactar texto de entrada ben escrito con Copilot |
Power Apps | Excel a táboa | Non | Xestionar configuración da funcionalidade |
Power Apps | Usar a linguaxe natural para editar unha aplicación mediante o panel de Copilot | Non | Xestionar configuración da funcionalidade |
Power Automate | Copilot en fluxos de nube na páxina de inicio e no deseñador (consulte Comezar con Copilot en fluxos de nube para obter máis información). | Non | Póñase en contacto coa asistencia técnica para executar un script de PowerShell. |
Power Pages | Todos (consulte Descrición xeral de Copilot en Power Pages para obter máis información). | Non | Desactivar Copilot en Power Pages |
Obteña máis información en Preguntas frecuentes para compartir datos opcionais para as funcionalidades de IA de Copilot en Dynamics 365 e Power Platform.
Dispoñibilidade rexional e lingüística
Dispoñibilidade internacional de Copilot
Movemento de datos a través de zonas xeográficas
- Como funciona o movemento de datos entre rexións
- Configure o movemento de datos entre localizacións xeográficas para funcionalidades de IA xerativa fóra dos Estados Unidos
- Movemento de datos de Copilot a través de zonas xeográficas en Dynamics 365 Sales
- Movemento de datos de Copilot a través de zonas xeográficas en Dynamics 365 Business Central
Seguridade en Microsoft
- Introdución á seguridade de Azure
- Cifrado en Microsoft Cloud
- Datos, privacidade e seguridade para o servizo de Azure OpenAI: servizos de IA de Azure
Privacidade en Microsoft
Declaración de privacidade de Microsoft