Preguntas frecuentes sobre la seguridad y privacidad de los datos de Copilot en Dynamics 365

Con la introducción de la IA generativa en las aplicaciones empresariales de Microsoft incluidas Dynamics 365, Viva Sales y Microsoft Power Platform, las interacciones con la IA de los roles y procesos de las empresas se convertirán en una segunda naturaleza. Con Copilot, Dynamics 365 y Power Platform presentan una nueva forma de generar ideas, borradores de contenido y métodos para acceder y organizar la información de toda la empresa.

Antes de que su empresa comience a usar las capacidades de Copilot en Dynamics 365 y Power Platform, es posible que tenga preguntas sobre cómo funciona, cómo mantiene seguros los datos de su empresa y cumple con los requisitos de privacidad y otras consideraciones importantes.

Esta artículo brinda respuestas a preguntas comunes relacionadas con la seguridad y privacidad de los datos profesionales para ayudar a su organización a comenzar con Copilot en Dynamics 365 y Power Platform.

¿En qué se diferencia ChatGPT de Copilot?

ChatGPT es un modelo de lenguaje extenso (LLM) de uso general entrenado por OpenAI en un conjunto de datos masivo de texto, diseñado para entablar conversaciones similares a las humanas y responder una amplia gama de preguntas sobre varios temas.

Copilot también usa un LLM; sin embargo, la tecnología de inteligencia artificial lista para la empresa impulsada por el Azure OpenAI Service está orientado y optimizado para que sus procesos empresariales y sus datos comerciales cumplan los requisitos de seguridad y privacidad. Para los usuarios de Dynamics 365 y Power Platform, Copilot sugiere acciones opcionales y recomendaciones de contenido en contexto con la tarea en cuestión.

Algunos aspectos en los que Copilot es único para la generación de lenguaje natural:

  • Las respuestas generadas por IA son exclusivamente contextuales, relevantes para la tarea en cuestión y basadas en los datos de la empresa, ya sea una respuesta a un correo electrónico de Dynamics 365, una aplicación que automatiza un proceso manual específico o la creación de una lista específica de segmentos de clientes a partir de su sistema CRM.

  • Copilot utiliza tanto un LLM (como GPT) como los datos empresariales de su organización para producir resultados más precisos, relevantes y personalizados. Sus datos empresariales se usan para mejorar el contexto solo para su escenario, y el LLM en sí no aprende de su uso. Para obtener más información sobre cómo funciona Copilot, vaya a la siguiente pregunta.

  • Con tecnología de Azure OpenAI Service, Copilot está diseñado desde cero sobre una base de seguridad, cumplimiento y privacidad de nivel empresarial.

¿Cómo funciona Copilot en Dynamics 365 y Power Platform?

Con Copilot, Dynamics 365 y Power Platform aprovechan la potencia de los modelos básicos junto con las tecnologías patentadas de Microsoft y se aplican a sus datos empresariales con:

  • Búsqueda (usando Bing y Azure Cognitive Search), que aporta contexto específico del dominio a una consulta a Copilot, permitiendo que la respuesta integre información de contenido como manuales, documentos u otros datos dentro del ámbito de la organización. Actualmente, Power Virtual Agents y Dynamics 365 Customer Service usan este enfoque de generación aumentada con recuperación como preprocesamiento para llamar a un LLM.

  • Aplicaciones de Microsoft como Dynamics 365, Viva Sales, Dataverse y Power Platform.

  • API de Microsoft Graph, que aporta más contexto procedente de las señales de los clientes a la consulta, como información de correos electrónicos, chats, documentos y reuniones cuando haya autorizado a Copilot para que lo haga.

A continuación se proporciona una descripción general de cómo funciona Copilot en Dynamics 365 y Power Platform.

<Este diagrama ilustra cómo funciona Copilot en Dynamics 365 y Power Platform, que también se describe en el contenido que sigue al diagrama.>

  1. Copilot solicita que un usuario de la empresa haga una consulta inicial en una aplicación, como Dynamics 365 Sales o Power Apps.

  2. Copilot preprocesa la consulta mediante una técnica denominada grounding, o anclaje, que mejora la especificidad de la consulta, de modo que el usuario obtiene respuestas que son relevantes y procesables para su tarea específica. Lo hace, en parte, realizando una llamada a Microsoft Graph y a Dataverse y accediendo a los datos de la empresa para lo que el usuario da su consentimiento y otorga permisos para utilizarlos en la recuperación de su contenido y contexto empresarial. También delimitamos el anclaje de documentos y datos que son visibles para el usuario autenticado a través de controles de acceso basados en roles (RBAC). Por ejemplo, una pregunta en la intranet sobre los beneficios devolvería solo una respuesta basada en documentos relevantes para el rol del empleado.

    Este método de recuperación de información se denomina generación aumentada con recuperación y permite a Copilot proporcionar más información contextual como entrada para un LLM, y combina los datos del usuario con otras entradas, como información recuperada de artículos de la base de conocimientos, para mejorar la consulta.

  3. Copilot toma la respuesta del LLM y la procesa posteriormente. Según el escenario, este posprocesamiento incluye una combinación de llamadas de anclaje adicionales a Microsoft Graph, comprobaciones de IA responsables, filtrado con moderación de contenido de Azure y restricciones adicionales específicas de la empresa y generación de comandos.

  4. Finalmente, Copilot devuelve una respuesta recomendada al usuario y envía comandos a las aplicaciones donde un humano que forme parte del proceso la pueda revisar. Copilot procesa y coordina de manera repetitiva estos sofisticados servicios para producir resultados precisos y seguros relevantes para su empresa.

¿Cómo usa Copilot los datos empresariales de su propiedad? ¿Se utilizan para entrenar modelos de IA?

Copilot desbloquea el valor empresarial al conectar los LLM a los datos de su empresa de manera segura, cumpliendo las normativas y preservando la privacidad.

Con su aprobación (del cliente), que puede revocar en cualquier momento, Copilot tiene acceso en tiempo real tanto a su contenido como a su contexto en Microsoft 365 Graph y Dataverse. Con ello, Copilot:

  1. Genera respuestas ancladas en el contenido de tu negocio cuando es relevante y con consentimiento. Los datos empresariales podrían incluir, por ejemplo, sus documentos, correos electrónicos, su calendario, chats, reuniones o contactos.

  2. Los combina con su contexto laboral. Por ejemplo, la reunión en la que se encuentra ahora, los intercambios de correo electrónico que ha realizado sobre un tema o las conversaciones de chat que mantuvo la semana pasada.

  3. Valida que tiene el acceso apropiado para recibir la información como respuesta.

  4. Brinda respuestas fundamentadas, relevantes y contextuales basadas en lo anterior.

Importante

  • Microsoft no usa los datos de los clientes para entrenar a los LLM. Creemos que los datos de los clientes son suyos, en línea con la directiva de privacidad de datos de Microsoft.
  • Los LLM impulsados por IA están entrenados con un corpus de datos grande pero limitado. Sin embargo, las consultas, las respuestas y los datos a los que se accede a través de Microsoft 365 Graph y los servicios de Microsoft no se usan para entrenar las capacidades de Copilot en Dynamics 365 y Power Platform para su uso por parte de otros clientes.
  • Los modelos básicos no se mejoran a través del uso de los clientes. Esto significa que solo los usuarios autorizados dentro de su organización pueden acceder a sus datos, a menos que dé su consentimiento explícito para otro acceso o uso.

¿Las respuestas de Copilot son siempre objetivas?

No se garantiza que las respuestas que produce la IA generativa sean 100 % objetivas. Si bien continuamos mejorando las respuestas a las consultas basadas en hechos, las personas deben someter los resultados a su propio juicio antes de enviarlos a otros. Nuestras capacidades de Copilot proporcionan borradores y resúmenes útiles para ayudarlo a lograr más, al mismo tiempo que le brindan la oportunidad de revisar la IA generada en lugar de automatizar completamente estas tareas.

Nuestros equipos continúan mejorando los algoritmos para abordar problemas de manera proactiva, como la información errónea y la desinformación, el bloqueo de contenido, la seguridad de los datos y la prevención de la promoción de contenido dañino o discriminatorio de acuerdo con nuestros principios de IA responsable.

También brindamos orientación dentro de la experiencia del usuario para reforzar el uso responsable de contenido y acciones generados por IA. Para ayudar a guiar a los usuarios en cómo usar de manera efectiva Copilot y las acciones y el contenido sugeridos, proporcionamos:

  • Orientación instructiva y consultas. Al usar Copilot, una serie de elementos informativos instruyen a los usuarios sobre cómo usar de manera responsable el contenido y las acciones sugeridas, e incluyen indicaciones para que se revisen y se editen las respuestas según sea necesario antes de su uso, y se verifique manualmente la precisión de los hechos, los datos y el texto.

  • Fuentes citadas. Copilot cita fuentes públicas cuando corresponde, por lo que puede ver enlaces al contenido web al que hace referencia.

¿Cómo protege Copilot la información y los datos confidenciales de la empresa?

Microsoft está en una posición única para ofrecer IA lista para la empresa. Con la tecnología del Azure OpenAI Service, Copilot cuenta con IA responsable integrada y seguridad de Azure de nivel empresarial.

  • Basado en el enfoque integral de Microsoft para la seguridad, el cumplimiento de normas y la privacidad. Copilot está integrado en servicios de Microsoft como Dynamics 365, Viva Sales, Power Platform y Microsoft 365 y hereda los valiosos procesos y directivas de seguridad, cumplimiento de normas y privacidad de estos productos. La autenticación en dos fases, los límites de cumplimiento, las protecciones de privacidad, etc. hacen de Copilot la solución de IA en la que poder confiar.

  • Diseñado para proteger los datos de inquilinos, grupos e individuos. Sabemos que la fuga de datos es una preocupación para los clientes. Los LLM no se entrenan con los datos ni las consultas de su inquilino, ni aprenden de ellos. Dentro de su inquilino, nuestro modelo de permisos probado a lo largo del tiempo proporciona salvaguardas y seguridad de nivel empresarial, como puede verse en nuestras ofertas de Azure. A nivel individual, Copilot presenta datos a los que solo usted puede acceder usando la misma tecnología que hemos estado usando durante años para proteger los datos de los clientes.

  • Diseñado para aprender nuevas capacidades. Las capacidades básicas de Copilot suponen un punto de inflexión para la productividad y los procesos empresariales. Las capacidades le permiten crear, resumir, analizar, colaborar y automatizar utilizando el contenido y el contexto específico de su empresa. Además, Copilot le recomienda acciones (por ejemplo, "crear una aplicación de tiempo y gastos para permitir que los empleados envíen sus informes de tiempo y gastos"). Copilot está diseñado para aprender nuevas capacidades. Por ejemplo, con Viva Sales, Copilot puede aprender a conectarse a sistemas de registro de CRM para incorporar datos de clientes, como historiales de interacción y pedidos, en las comunicaciones. A medida que Copilot aprenda sobre nuevos dominios y procesos, podrá realizar tareas y consultas aún más sofisticadas.

¿Cumplirá Copilot con los requisitos de las órdenes de cumplimiento normativo?

Microsoft ofrece Copilot dentro del ecosistema de Dynamics 365 y Power Platform. Para obtener detalles sobre las certificaciones reglamentarias para un servicio de Microsoft, vaya al Portal de confianza de servicios. Además, Copilot se adhiere a nuestro compromiso con la IA responsable, que se describe en nuestros principios de IA responsable.

A medida que evoluciona la regulación en el espacio de la IA, Microsoft continuará adaptándose y respondiendo para cumplir con los requisitos normativos futuros en este espacio.