Compartir a través de


Nota de transparencia para Microsoft 365 Copilot

¿Qué es una nota de transparencia?

Un sistema de inteligencia artificial incluye no solo la tecnología, sino también las personas que la usarán, las personas que se verán afectadas por ella y el entorno en el que se implementa. La creación de un sistema adecuado para su propósito previsto requiere comprender cómo funciona la tecnología, cuáles son sus capacidades y limitaciones y cómo lograr el mejor rendimiento. Las notas de transparencia de Microsoft están diseñadas para ayudarle a comprender cómo funciona nuestra tecnología de inteligencia artificial, las opciones que los propietarios del sistema pueden tomar para influir en el rendimiento y el comportamiento del sistema, y la importancia de pensar en todo el sistema, incluida la tecnología, las personas y el entorno. Seguiremos actualizando este documento a medida que evoluciona el servicio.

Las notas de transparencia de Microsoft forman parte de un esfuerzo más amplio de Microsoft para poner en práctica nuestros principios de inteligencia artificial. Para obtener más información, consulte los principios de IA de Microsoft.

Conceptos básicos de Microsoft 365 Copilot

Introducción

Microsoft 365 Copilot es una herramienta de productividad con tecnología de inteligencia artificial que usa modelos de lenguaje grande (LLM) e integra datos con aplicaciones y servicios de Microsoft Graph y Microsoft 365. Funciona junto con aplicaciones populares de Microsoft 365 como Word, Excel, PowerPoint, Outlook, Teams, etc.

Microsoft 365 Copilot usa una combinación de modelos proporcionados por el servicio OpenAI de Azure. Esto nos permite hacer coincidir las necesidades específicas de cada característica (por ejemplo, velocidad, creatividad) con el modelo adecuado, de modo que Microsoft 365 Copilot pueda proporcionar asistencia inteligente en tiempo real que permita a los usuarios mejorar su creatividad, productividad y habilidades.

Para obtener información adicional y detallada sobre los LLM proporcionados a Microsoft por OpenAI, consulte su documentación pública, disponible en Models - OpenAI API.

Términos clave

Término Descripción
Solicitud de usuario Un mensaje de usuario es el texto enviado a Microsoft 365 Copilot para ejecutar una tarea específica o proporcionar información. Por ejemplo, un usuario podría escribir el siguiente mensaje: Escriba un correo electrónico felicitando a mi equipo al final del año fiscal.
Procesamiento El procesamiento de un mensaje de usuario en Microsoft 365 Copilot implica varios pasos, incluidas las comprobaciones de inteligencia artificial responsables, para asegurarse de que Microsoft 365 Copilot proporciona respuestas pertinentes y accionables.
Tierra La puesta en tierra hace referencia al proceso de proporcionar orígenes de entrada al LLM relacionado con el símbolo del usuario. Al habilitar Microsoft 365 Copilot para acceder a los datos para usarlos como orígenes de entrada (como datos de Microsoft Graph o Bing) Microsoft 365 Copilot puede ofrecer respuestas más precisas y contextualmente relevantes para los usuarios.
Microsoft Graph Microsoft Graph es la puerta de enlace a datos y la inteligencia de Microsoft 365. Incluye información sobre las relaciones entre los usuarios, las actividades y los datos de una organización.
Conectores de Microsoft Graph Los conectores de Microsoft Graph ofrecen una manera de incorporar contenido de servicios externos a Microsoft Graph, lo que permite que los datos externos puedan impulsar experiencias inteligentes de Microsoft 365, como Microsoft Search y Microsoft 365 Copilot.
Indización Microsoft usa la indexación léxica y semántica de los datos de Microsoft Graph para establecer respuestas para Microsoft 365 Copilot en datos empresariales. La indexación interpreta las solicitudes del usuario para generar respuestas contextualmente relevantes. Para obtener más información sobre la indexación, consulte Comportamiento del sistema.
Símbolo del sistema enriquecido Un mensaje se enriquece cuando se agregan instrucciones adicionales a la solicitud de entrada de un usuario para guiar Microsoft 365 Copilot en la generación de una respuesta más específica y relevante.
Contenido de las interacciones Término que se usa para describir la solicitud del usuario y la respuesta del Microsoft 365 Copilot a esa solicitud.
Modelo de lenguaje grande (LLM) Los modelos de lenguaje grande (LLM) en este contexto son modelos de inteligencia artificial que se entrenan en grandes cantidades de datos de texto para predecir palabras en secuencias. Los LLM son capaces de realizar una variedad de tareas, como la generación de texto, el resumen, la traducción, la clasificación, etc.
Respuesta de LLM El contenido generado por el LLM como respuesta al mensaje de usuario que se devuelve a Microsoft 365 Copilot.
Procesamiento posterior El procesamiento Microsoft 365 Copilot hace después de recibir una respuesta del LLM. Este procesamiento posterior incluye llamadas de puesta a tierra adicionales a Microsoft Graph, inteligencia artificial responsable, seguridad, cumplimiento y comprobaciones de privacidad.
Inteligencia artificial responsable Las prácticas de ingeniería, investigación e investigación de Microsoft que se fundamentan en nuestros principios de inteligencia artificial y se operacionalizan a través de nuestro estándar de inteligencia artificial responsable.
Agentes de Copilot Los agentes de Copilot son aplicaciones desarrolladas por Microsoft y otros proveedores que los usuarios y organizaciones pueden instalar para agregar nuevas aptitudes y conocimientos a Microsoft 365 Copilot. Para obtener más información sobre el uso de la inteligencia artificial en los agentes de Copilot, consulte esas ofertas directamente.
Pruebas de equipo rojo Técnicas utilizadas por expertos para evaluar las limitaciones y vulnerabilidades de un sistema y para probar la eficacia de las mitigaciones planeadas. Las pruebas en equipo rojo se usan para identificar posibles riesgos y son distintas de la medición sistemática de los riesgos.

Capacidades

Características

Característica Descripción
Microsoft 365 Copilot en Word Microsoft 365 Copilot en Word transforma la escritura con eficacia y creatividad para que los usuarios puedan crear, resumir, comprender, refinar y elevar documentos. Los usuarios también pueden usar funcionalidades mejoradas, como visualizar y transformar texto en una tabla. Otras funcionalidades también incluyen la adición a solicitudes existentes, la redacción de un documento haciendo referencia a otros documentos y la detección de información sobre los documentos.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Word.
Microsoft 365 Copilot en PowerPoint Microsoft 365 Copilot en PowerPoint permite a los usuarios crear una nueva presentación a partir de un mensaje o archivo Word, aprovechando las plantillas empresariales. La característica de chat habilita Resumen y Q&A y comandos ligeros permite a los usuarios agregar diapositivas, imágenes o realizar cambios de formato en toda la baraja. Los archivos de PowerPoint también se pueden usar para la puesta a tierra de datos.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en PowerPoint.
Microsoft 365 Copilot en Excel Microsoft 365 Copilot en Excel ayuda a los usuarios con sugerencias para fórmulas, tipos de gráficos e información sobre los datos de las hojas de cálculo.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Excel.
Microsoft 365 Copilot en Outlook Microsoft 365 Copilot en Outlook ayuda a administrar la bandeja de entrada de correo electrónico y a crear una comunicación impactante de forma más eficaz. Microsoft 365 Copilot en Outlook puede resumir un subproceso de correo electrónico, sugerir elementos de acción, respuestas y reuniones de seguimiento. También puede ajustar la longitud y el tono al redactar un correo electrónico.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Outlook.
Microsoft 365 Copilot en Teams Microsoft 365 Copilot en Teams puede recapitular las conversaciones, organizar puntos de discusión clave y resumir acciones clave. Los usuarios pueden obtener respuestas a preguntas específicas y ponerse al día de las cosas que han perdido en reuniones o chats.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Microsoft Teams.
Microsoft 365 Copilot en Loop Microsoft 365 Copilot en Loop permite a los usuarios crear contenido que se puede mejorar de forma colaborativa mediante la edición directa o el refinamiento por parte de Copilot.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Loop.
Microsoft 365 Copilot en Microsoft Stream Microsoft 365 Copilot en Microsoft Stream ayuda a obtener información de cualquier vídeo con una transcripción. Microsoft 365 Copilot en Stream puede proporcionar un resumen del vídeo, responder preguntas específicas, saltar rápidamente a temas o puntos de discusión específicos e identificar llamadas a la acción.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Stream.
Microsoft 365 Copilot en Whiteboard Microsoft 365 Copilot en Whiteboard ayuda a iniciar el proceso de ideación para generar, clasificar y resumir ideas.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en Whiteboard.
Microsoft 365 Copilot en OneNote Microsoft 365 Copilot en OneNote permite a los usuarios redactar planes, generar ideas, crear listas y organizar información para ayudarles a encontrar lo que necesitan en la aplicación OneNote.

Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en OneNote.
Microsoft 365 Copilot Chat Microsoft 365 Copilot Chat (anteriormente denominado Chat empresarial) combina la eficacia de los modelos de lenguaje grande con Internet, el contenido y el contexto del trabajo, y otras aplicaciones, para ayudar a los usuarios a redactar contenido, ponerse al día de lo que falta y obtener respuestas a preguntas a través de mensajes.
Microsoft 365 Copilot en el editor de texto enriquecido de SharePoint Microsoft 365 Copilot en el editor de texto enriquecido de Microsoft SharePoint simplifica la creación de contenido en páginas y publicaciones de SharePoint. Con Copilot, puede reescribir texto, ajustar el tono, condensar información e ideas elaboradas. Para obtener más información, vea Preguntas más frecuentes sobre Copilot en SharePoint.
Microsoft 365 Copilot en OneDrive Microsoft 365 Copilot en OneDrive es una innovadora asistente con tecnología de inteligencia artificial diseñada para ayudarle a interactuar con sus documentos mediante la extracción de información, la comparación de las diferencias clave, el resumen de archivos y la generación de información. Para obtener más información, consulte Preguntas más frecuentes sobre Copilot en OneDrive.
Microsoft 365 Copilot tarjetas de vistazo Las tarjetas de vistazo ofrecen una vista previa rápida de entidades de trabajo, como documentos, para ayudar a evaluar la relevancia o la recuperación. Para acceder a ellos, mantenga el puntero sobre los archivos en la pestaña Buscar de la aplicación Microsoft 365 Copilot.
Búsqueda inteligente La búsqueda inteligente permite la búsqueda en aplicaciones de Dataverse como Dynamics 365 Sales, Service y Finance & Operations mediante lenguaje natural.
Conectores de Power Platform Los conectores de Power Platform permiten a los clientes acceder a datos en tiempo real desde una colección de aplicaciones de productividad empresarial y personal en la experiencia de Microsoft 365 Copilot.
Conectores de Microsoft Graph Los conectores de Microsoft Graph permiten conexiones a orígenes de datos externos, incluidos hasta 500 elementos por Microsoft 365 Copilot licencia.
Microsoft Purview Microsoft Purview es una solución que ayuda a las organizaciones a administrar y proteger sus datos. Proporciona una plataforma unificada para la gobernanza de datos, la protección de la información, la administración de riesgos y el cumplimiento. Los clientes pueden ampliar las funcionalidades de Microsoft Purview proporcionadas por las suscripciones de Microsoft de los clientes (por ejemplo, suscripciones de Microsoft 365 E3 o E5) para Microsoft 365 Copilot datos e interacciones.
Ajuste de Microsoft 365 Copilot Microsoft 365 Copilot Tuning permite a las organizaciones ajustar los modelos de lenguaje grande (LLM) mediante sus propios datos de inquilino. Estos modelos se pueden usar para realizar tareas específicas del dominio basadas en el conocimiento único de la organización.

Para obtener más información, consulte Preguntas más frecuentes sobre IA responsable para el ajuste de Microsoft 365 Copilot

Comportamiento del sistema

Microsoft 365 Copilot usa una combinación de LLM para resumir, predecir y generar contenido. Estos LLM incluyen modelos previamente entrenados, como transformadores previamente entrenados (GPT) generativos, como GPT-4 de OpenAI, diseñados para destacar en estas tareas.

Las funcionalidades que los usuarios ven en las aplicaciones de Microsoft 365 aparecen como características, funcionalidades y funcionalidades de solicitud adicionales. Los LLM y las tecnologías propietarias de Microsoft funcionan conjuntamente en un sistema subyacente que ayuda a las personas a acceder, usar y administrar sus datos de la organización de forma segura.

  • Las aplicaciones de Microsoft 365 (como Word, Excel, PowerPoint, Outlook, OneNote, Teams y Loop) funcionan con Microsoft 365 Copilot para admitir a los usuarios en el flujo de su trabajo. Por ejemplo, Microsoft 365 Copilot en Word está diseñado para ayudar a los usuarios específicamente en el proceso de creación, comprensión y edición de documentos. De forma similar, Copilot para Microsoft 365 en las otras aplicaciones ayuda a los usuarios en el contexto de su trabajo dentro de esas aplicaciones.

  • Microsoft Graph ha sido fundamental durante mucho tiempo para Microsoft 365. Incluye información sobre las relaciones entre los usuarios, las actividades y los datos de una organización. Microsoft Graph API aporta más contexto de las señales del cliente en el mensaje, como información de correos electrónicos, chats, documentos y reuniones. Para obtener más información, consulte Información general sobre Microsoft Graph y Principales servicios y características de Microsoft Graph.

  • Microsoft 365 Copilot Chat permite a los clientes llevar contenido y contexto de trabajo a las funcionalidades de chat de Microsoft 365 Copilot. Con Microsoft 365 Copilot Chat, los usuarios pueden redactar contenido, ponerse al día de lo que se les ha perdido y obtener respuestas a las preguntas a través de mensajes abiertos, todo ello basado de forma segura en datos de trabajo. Use Microsoft 365 Copilot Chat en muchas superficies, incluido Microsoft Teams, en Microsoft365.com y en copilot.microsoft.com.

  • El índice semántico es un índice generado a partir del contenido de Microsoft Graph. Se usa para ayudar en el procesamiento de mensajes de usuario para generar respuestas contextualmente relevantes. Permite a las organizaciones buscar miles de millones de vectores (representaciones matemáticas de características o atributos) y devolver resultados relacionados. El índice semántico está diseñado para respetar el contexto de seguridad de los usuarios individuales y solo se muestra el contenido al que un usuario puede acceder. El índice semántico se basa en el enfoque completo de Microsoft para la seguridad, el cumplimiento, la privacidad y respeta todos los límites de la organización dentro del inquilino del cliente. Para obtener más información, consulte Índice semántico para Copilot.

Aquí ofrecemos una explicación de cómo funciona Microsoft 365 Copilot:

  • Microsoft 365 Copilot recibe un mensaje de entrada de un usuario de una aplicación, como Word o PowerPoint.

  • Microsoft 365 Copilot, a continuación, procesa la solicitud del usuario, lo que mejora la especificidad del aviso, para ayudar al usuario a obtener respuestas que son relevantes y accionables para su tarea específica. El mensaje puede incluir texto de archivos de entrada u otro contenido detectado por Microsoft 365 Copilot mediante Microsoft Graph y Microsoft 365 Copilot envía este mensaje al LLM para su procesamiento. Microsoft 365 Copilot solo tiene acceso a los datos a los que un usuario individual tiene acceso existente, en función, por ejemplo, de los controles de acceso basados en roles de Microsoft 365 existentes.

  • Microsoft 365 Copilot toma la respuesta del LLM y la procesa posteriormente. Este procesamiento posterior incluye otras llamadas de puesta a tierra a Microsoft Graph, comprobaciones de inteligencia artificial responsables como clasificadores de contenido, seguridad, comprobaciones de cumplimiento y privacidad y generación de comandos.

  • Microsoft 365 Copilot devuelve la respuesta a la aplicación, donde el usuario puede revisar y evaluar la respuesta.

Los datos se cifran mientras se almacenan y no se usan para entrenar los LLM básicos del servicio OpenAI de Azure, incluidos los usados por Microsoft 365 Copilot. Para obtener más información sobre esto, consulte Datos, privacidad y seguridad para Microsoft 365 Copilot.

Cómo Microsoft 365 Copilot genera respuestas sin contenido web ni datos de la organización

Microsoft 365 Copilot no requiere contenido web ni datos de la organización para proporcionar una respuesta, pero esa información puede ayudar a mejorar la calidad, precisión y relevancia de su respuesta. Al responder sin datos web o organizativos, Microsoft 365 Copilot solo se basa en sus LLM para comprender los mensajes y generar respuestas. El proceso implica analizar la entrada, aprovechar la knowledge base interna del modelo y refinar la respuesta para asegurarse de que es contextualmente adecuada.

Personalización de & extensibilidad

Microsoft 365 Copilot ofrece características para ayudar a los usuarios a desbloquear la productividad y la creatividad. Su adaptabilidad significa que se puede personalizar para satisfacer las necesidades únicas de las distintas organizaciones. La capacidad de ampliar sus capacidades a través de extensiones lo convierte en un recurso en continua evolución que se puede adaptar al panorama cambiante de las necesidades empresariales. Más información sobre la personalización de Microsoft 365 Copilot en Copilot | Desarrollador de Microsoft. Para obtener más información sobre el uso de la inteligencia artificial en las extensiones, consulte esas ofertas directamente.

Casos de uso

Microsoft 365 Copilot es un servicio de uso general, diseñado para ayudar con una amplia variedad de tareas diarias en cualquier organización mediante la conexión con datos de trabajo y la integración con las aplicaciones que los clientes usan cada día. Por ejemplo:

  • Interacción de chat y conversación & creación: los usuarios pueden interactuar con Microsoft 365 Copilot Chat y generar respuestas extraídas de documentos de confianza, como documentación interna de la empresa o documentación de soporte técnico.

  • Búsqueda: los usuarios pueden buscar en documentos de origen de confianza, como la documentación interna de la empresa.

  • Resumen: los usuarios pueden enviar contenido que se resumirá para los temas predefinidos integrados en la aplicación. Algunos ejemplos son el resumen de chats, correos electrónicos, páginas web y documentos Word de Teams.

  • Ayuda para la escritura en temas específicos: los usuarios pueden crear contenido nuevo o reescribir contenido enviado por el usuario como ayuda para escribir contenido empresarial o temas predefinidos. Por ejemplo, redactar correos electrónicos en Microsoft Outlook o escribir contenido en Microsoft Word.

  • Subtítulos o transcripción: los usuarios pueden transcribir archivos de audio en texto para comprender el lenguaje natural o realizar tareas analíticas como el resumen. Entre los ejemplos se incluyen transcripciones y vídeos de reuniones de Teams en Microsoft Stream.

Microsoft proporciona instrucciones detalladas que se centran en escenarios y casos de uso comunes para ayudar a los clientes a acelerar la integración de las funcionalidades de Microsoft 365 Copilot en sus organizaciones. Obtenga más información en Biblioteca de escenarios de Microsoft Copilot: Adopción de Microsoft.

Consideraciones al elegir un caso de uso

Recomendamos a los usuarios que revisen todo el contenido generado por Microsoft 365 Copilot antes de ponerlo en uso. Además, hay ciertos escenarios que se recomiendan evitar. En algunos casos, la supervisión y revisión humanas significativas pueden reducir aún más el riesgo de resultados dañinos.

  • Evitar el uso o mal uso del sistema podría dar lugar a lesiones físicas o psicológicas significativas a un individuo. Por ejemplo, los escenarios que diagnostican pacientes o recetan medicamentos pueden causar daños significativos.

  • Evitar el uso o uso indebido del sistema podría tener un impacto consecuente en las oportunidades de vida o el estado legal. Entre los ejemplos se incluyen escenarios en los que el sistema de inteligencia artificial podría afectar a la condición jurídica, los derechos legales de un individuo o su acceso al crédito, la educación, el empleo, la atención sanitaria, la vivienda, el seguro, las prestaciones de bienestar social, los servicios, las oportunidades o los términos en los que se proporcionan.

  • Considere cuidadosamente los casos de uso en dominios de alto riesgo o en el sector. Entre los ejemplos se incluyen, entre otros, los médicos o financieros.

Limitaciones

Limitaciones específicas de Microsoft 365 Copilot

  1. Integración y compatibilidad: aunque Microsoft 365 Copilot está diseñado para integrarse sin problemas con aplicaciones de Microsoft 365, puede haber limitaciones o problemas con la compatibilidad en determinados entornos, especialmente con aplicaciones de terceros (que no son de Microsoft) y configuraciones personalizadas o no estándar.

  2. Personalización y flexibilidad: aunque Microsoft 365 Copilot se pueden adaptar, hay limitaciones en cuanto a la cantidad que se puede personalizar para adaptarse a las necesidades o flujos de trabajo de la organización específicos. Las organizaciones pueden encontrar ciertas características o respuestas rígidas o no totalmente alineadas con los requisitos de la organización.

  3. Dependencia de la conectividad a Internet: Microsoft 365 Copilot se basa en la conectividad a Internet para funcionar. Cualquier interrupción en la conectividad puede afectar a la disponibilidad y el rendimiento del servicio.

  4. Aprendizaje y adopción de usuarios: el uso eficaz de Microsoft 365 Copilot requiere que los usuarios comprendan sus capacidades y limitaciones. Puede haber una curva de aprendizaje y los usuarios deben entrenarse para interactuar de forma eficaz con el servicio y beneficiarse de él.

  5. Intensidad de los recursos: la ejecución de modelos avanzados de inteligencia artificial requiere recursos computacionales significativos, lo que puede afectar al rendimiento, especialmente en entornos restringidos por recursos. Los usuarios pueden experimentar problemas de latencia o rendimiento durante las horas de uso máximas.

  6. Consideraciones legales y de cumplimiento: las organizaciones deben tener en cuenta sus obligaciones legales y de cumplimiento particulares al usar Microsoft 365 Copilot, especialmente en sectores regulados. Microsoft examina los requisitos normativos que se aplican a Microsoft como proveedor de la tecnología y los aborda dentro del producto a través de un proceso de mejora continua.

  7. Sesgo, estereotipado y contenido sin conexión: a pesar del entrenamiento intensivo de OpenAI y de la implementación de controles de inteligencia artificial responsables por Parte de Microsoft tanto en las solicitudes de usuario como en las salidas de LLM, los servicios de inteligencia artificial son falibles y probabilísticos. Esto hace que sea difícil bloquear de forma completa todo el contenido inadecuado, lo que conduce a posibles sesgos, estereotipos o falta de conexión en el contenido generado por IA. Para obtener más información sobre las limitaciones conocidas del contenido generado por IA, consulte la nota de transparencia del servicio Azure OpenAI, que incluye referencias a los LLM detrás de Microsoft 365 Copilot.

rendimiento de Microsoft 365 Copilot

En muchos sistemas de inteligencia artificial, el rendimiento a menudo se define en relación con la precisión, es decir, la frecuencia con la que el sistema de inteligencia artificial ofrece una predicción o una salida correctas. Con Microsoft 365 Copilot, dos usuarios diferentes pueden examinar la misma salida y tener opiniones diferentes sobre lo útil o relevante que es, lo que significa que el rendimiento de estos sistemas debe definirse de forma más flexible. En general, consideramos que el rendimiento significa que la aplicación funciona como los usuarios esperan.

Procedimientos recomendados para mejorar la experiencia de Microsoft 365 Copilot

Para mejorar el rendimiento en relación con la precisión de Microsoft 365 Copilot salida, se recomienda que las organizaciones consideren lo siguiente:

  • Escriba buenas indicaciones. Escribir buenas indicaciones es clave para obtener mejores resultados con Microsoft 365 Copilot. Al igual que hay técnicas para ayudar a las personas a comunicarse eficazmente con un humano, hay directrices que pueden ayudar a los usuarios a obtener mejores resultados con Microsoft 365 Copilot al escribir mensajes. Por ejemplo: incluir detalles, mensajes de estructura, proporcionar instrucciones positivas, iterar y regenerar, y revisar y comprobar siempre las respuestas generadas por IA. Para obtener más información, consulte Obtención de mejores resultados con la solicitud de Copilot.

  • Permitir hacer referencia al contenido web. Permitir que Microsoft 365 Copilot haga referencia a contenido web puede mejorar la calidad, precisión y relevancia de las respuestas Microsoft 365 Copilot en las que una respuesta se beneficiaría de la información pública actual de la web. Tenga en cuenta, sin embargo, que cuando Microsoft 365 Copilot hace referencia a contenido web, lo hace a través del servicio Búsqueda de Bing y las prácticas de control de datos para las consultas Búsqueda de Bing son diferentes de cómo se controlan los datos por Microsoft 365 Copilot. El uso de Bing está cubierto por el Contrato de servicios de Microsoft entre cada usuario y Microsoft, junto con la Declaración de privacidad de Microsoft.

  • Extensión de la conexión a tierra en Microsoft Graph. Microsoft 365 Copilot usa datos de Microsoft Graph para establecer respuestas en datos específicos de la organización, como correos electrónicos, chats, archivos y calendarios. Al ampliar Microsoft Graph con datos de la organización de orígenes como sistemas CRM o repositorios de archivos externos, las organizaciones pueden incluir información relevante y específica del contexto adicional que mejore aún más la riqueza y precisión de las respuestas Microsoft 365 Copilot.

Asignación, medición y administración de riesgos

Al igual que otras tecnologías de transformación, aprovechar las ventajas de la inteligencia artificial no está libre de riesgos y una parte fundamental del programa de inteligencia artificial responsable de Microsoft está diseñado para identificar posibles riesgos, medir su propensión a producirse y crear mitigaciones para administrarlos. Guiados por nuestros principios de inteligencia artificial y nuestra Standard de inteligencia artificial responsable, y basándose en aprendizajes de otros productos de inteligencia artificial generativa y nuestra infraestructura de mitigación centralizada (por ejemplo, Seguridad del contenido de Azure AI), buscamos asignar, medir y administrar posibles riesgos y uso indebido de Microsoft 365 Copilot mientras se protegen los usos transformadores y beneficiosos que proporciona la nueva experiencia. En las secciones siguientes se describe nuestro enfoque iterativo para asignar, medir y administrar posibles riesgos.

Map

A nivel de modelo, nuestro trabajo comenzó con análisis exploratorios de GPT-4 a finales del verano de 2022. Esto incluyó la realización de extensas pruebas en equipo rojo en colaboración con OpenAI. Esta prueba se diseñó para evaluar cómo funcionaría la tecnología más reciente sin que se le aplicaran medidas de seguridad adicionales. Nuestra intención específica en este momento era identificar riesgos, exponer posibles vías para el uso indebido e identificar capacidades y limitaciones. Nuestros aprendizajes combinados en OpenAI y Microsoft contribuyeron a los avances en el desarrollo de modelos y, para nosotros en Microsoft, informamos de nuestra comprensión de los riesgos y contribuímos a estrategias de mitigación tempranas para todas nuestras tecnologías de inteligencia artificial generativa, incluidos los Microsoft 365 Copilot.

Además de las pruebas de equipo rojo de nivel de modelo, un equipo multidisciplinar de expertos llevó a cabo pruebas de equipo rojo de nivel de aplicación en Microsoft 365 Copilot experiencias antes de que estén disponibles públicamente. Este proceso nos ayudó a comprender mejor cómo se podría aprovechar el sistema y mejorar nuestras mitigaciones. Después del lanzamiento, las nuevas experiencias de inteligencia artificial en Microsoft 365 Copilot se integran en la infraestructura de pruebas y medición de producción existente de la organización de ingeniería.

Medida

Las pruebas en equipo rojo pueden exponer instancias de riesgos específicos, pero en producción los usuarios tendrán millones de tipos diferentes de interacciones con Microsoft 365 Copilot. Además, las interacciones son contextuales y a menudo multiturno, y la identificación del contenido dañino dentro de una interacción es una tarea compleja. Para comprender y abordar mejor el potencial de riesgos para nuestros servicios de inteligencia artificial generativa, incluidas las experiencias de Microsoft 365 Copilot, desarrollamos evaluaciones de inteligencia artificial responsables específicas de esas nuevas experiencias de inteligencia artificial para medir posibles riesgos, como jailbreaks, contenido dañino y contenido sin conexión.

Como ejemplo ilustrativo, la canalización de medición parcialmente automatizada actualizada para contenido dañino incluye dos innovaciones principales: la simulación de conversaciones y la anotación automatizada de conversaciones verificadas por el usuario. En primer lugar, los expertos en inteligencia artificial responsable crearon plantillas para capturar la estructura y el contenido de las conversaciones que podrían dar lugar a diferentes tipos de contenido dañino. A continuación, estas plantillas se entregaron a un agente conversacional, que interactuó como un usuario hipotético con Microsoft 365 Copilot, generando conversaciones simuladas. Para identificar si estas conversaciones simuladas contenían contenido dañino, tomamos directrices que normalmente usan los lingüistas expertos para etiquetar los datos y modificarlos para que los usen los LLM para etiquetar las conversaciones a escala, refinando las directrices hasta que haya un acuerdo significativo entre las conversaciones con etiqueta de modelo y las conversaciones con etiqueta humana. Por último, usamos las conversaciones con etiqueta de modelo para comprender la eficacia de Microsoft 365 Copilot para mitigar el contenido dañino.

Nuestras canalizaciones de medición nos permiten realizar rápidamente la medición de posibles riesgos a escala. A medida que identificamos nuevos problemas durante el período de versión preliminar y las pruebas en equipo rojo en curso, seguimos expandiendo y mejorando los conjuntos de medidas para evaluar riesgos adicionales.

Administrar

A medida que identificamos los posibles riesgos y el uso indebido a través de procesos como las pruebas de equipo rojo y los medimos, desarrollamos mitigaciones para reducir el potencial de daños. A continuación, se describen algunas de esas mitigaciones. Seguiremos supervisando las experiencias de Microsoft 365 Copilot para mejorar el rendimiento y las mitigaciones del producto.

  • Versión por fases, evaluación continua. Estamos comprometidos a aprender y mejorar nuestro enfoque de inteligencia artificial responsable continuamente a medida que evolucionan nuestras tecnologías y el comportamiento del usuario. Estamos realizando cambios en Microsoft 365 Copilot regularmente para mejorar el rendimiento del producto, mejorar las mitigaciones existentes e implementar nuevas mitigaciones en respuesta a nuestros aprendizajes.

  • Base de datos empresariales. Un riesgo conocido con modelos de lenguaje grande es su capacidad para generar contenido no encallado, contenido que parece correcto pero que no está presente en los materiales de origen. Una mitigación importante en Microsoft 365 Copilot consiste en basar el contenido generado por IA en los datos empresariales pertinentes a los que el usuario tiene acceso en función de sus permisos. Por ejemplo, en función del aviso del usuario, Microsoft 365 Copilot se proporciona con los documentos empresariales pertinentes para fundamentar su respuesta en esos documentos. Sin embargo, al resumir el contenido de varios orígenes, Microsoft 365 Copilot puede incluir información en su respuesta que no está presente en sus orígenes de entrada. En otras palabras, puede producir resultados no encallados. Los usuarios siempre deben tener precaución y usar su mejor criterio al usar salidas de Microsoft 365 Copilot. Hemos tomado varias medidas para mitigar el riesgo de que los usuarios puedan confiar en exceso en contenido generado por IA no encallado. Siempre que sea posible, las respuestas de Microsoft 365 Copilot basadas en documentos empresariales incluyen referencias a los orígenes para que los usuarios comprueben la respuesta y obtengan más información. A los usuarios también se les proporciona un aviso explícito de que interactúan con un sistema de inteligencia artificial y se recomienda comprobar los materiales de origen para ayudarles a usar su mejor juicio.

  • Clasificadores basados en inteligencia artificial y metaprompting para mitigar posibles riesgos o usos indebidos. El uso de LLM puede producir contenido problemático que podría provocar daños. Algunos ejemplos podrían ser la salida relacionada con autolesión, violencia, contenido gráfico, material protegido, información inexacta, discurso odioso o texto que pudiera estar relacionado con actividades ilegales. Clasificadores como los disponibles en Seguridad del contenido de Azure AI y metaprompting son dos ejemplos de mitigaciones que se han implementado en Microsoft 365 Copilot para ayudar a reducir el riesgo de estos tipos de contenido. Los clasificadores clasifican el texto para marcar diferentes tipos de contenido potencialmente dañino en las solicitudes del usuario o las respuestas generadas. Microsoft 365 Copilot usa clasificadores y filtros de contenido basados en inteligencia artificial. Las marcas conducen a posibles mitigaciones, como no devolver contenido generado al usuario o desviar al usuario a otro tema. El metaprompting implica dar instrucciones al modelo para guiar su comportamiento, incluso para que el sistema se comporte de acuerdo con los principios de inteligencia artificial de Microsoft y las expectativas del usuario. Por ejemplo, el metaprompt puede incluir una línea como "comunicarse en el idioma que prefiera el usuario".

  • Preguntar enriquecimiento. En algunos casos, el mensaje de un usuario puede ser ambiguo. Cuando esto sucede, Microsoft 365 Copilot puede usar el LLM para ayudar a crear más detalles en el mensaje para ayudar a garantizar que los usuarios obtengan la respuesta que buscan. Este enriquecimiento rápido no depende de ningún conocimiento del usuario o de sus búsquedas previas, sino del LLM.

  • Intervenciones de diseño centradas en el usuario y experiencia de usuario. El diseño centrado en el usuario y las experiencias de usuario son un aspecto esencial del enfoque de Microsoft para la inteligencia artificial responsable. El objetivo es rootear el diseño del producto en las necesidades y expectativas de los usuarios. A medida que los usuarios interactúan con Microsoft 365 Copilot por primera vez, ofrecemos varios puntos de contacto diseñados para ayudarles a comprender las funcionalidades del sistema, revelarles que Microsoft 365 Copilot funciona con inteligencia artificial y comunicar limitaciones.

  • Divulgación de IA. Microsoft 365 Copilot proporciona varios puntos de contacto para la divulgación de inteligencia artificial significativa donde se notifica a los usuarios que interactúan con un sistema de inteligencia artificial, así como oportunidades para obtener más información sobre Microsoft 365 Copilot. Por ejemplo, al usar Microsoft 365 Copilot en la aplicación de Word, el contenido generado por IA se da junto con el aviso de que el contenido generado por IA puede contener errores. Capacitar a los usuarios con este conocimiento puede ayudarles a evitar depender en exceso de los resultados generados por IA y a conocer las ventajas y limitaciones del sistema.

  • Provenencia de medios. Para todas las imágenes creadas con las características de edición de Designer desde dentro de Microsoft 365 Copilot, hemos implementado credenciales de contenido, provenancia basada en el estándar C2PA, para ayudar a las personas a identificar si las imágenes se editaron o generaron con IA. Los metadatos de la procedencia se pueden ver en el sitio Credenciales de contenido.

  • Comentarios y evaluación continua. La experiencia Microsoft 365 Copilot se basa en herramientas existentes que permiten a los usuarios enviar comentarios sobre nuestros productos. Los usuarios pueden enviar comentarios sobre el contenido generado por Microsoft 365 Copilot mediante el panel que aparece después de seleccionar los botones de los pulgares hacia arriba o hacia abajo en las respuestas. Los comentarios enviados por los usuarios se usan para mejorar nuestras ofertas como parte de nuestro compromiso con la mejora del rendimiento del producto. Los administradores de clientes pueden revisar los comentarios enviados en la Centro de administración de Microsoft 365. También mejoramos y probamos continuamente el rendimiento de Microsoft 365 Copilot y mitigaciones específicas como parte de nuestra evaluación y mejora continua del servicio. Obtenga más información en Proporcionar comentarios sobre Microsoft Copilot con aplicaciones de Microsoft 365.

Nuestro enfoque de asignación, medición y administración de riesgos seguirá evolucionando a medida que obtengamos más información y ya estamos realizando mejoras en función de los comentarios que hemos recibido de los clientes.

Evaluación e integración de Microsoft 365 Copilot para su organización

Optimización de la implementación & adopción

Microsoft proporciona herramientas como el panel de Microsoft Copilot para clientes de Microsoft 365 e informes en el Centro de administración de Microsoft 365. Estas herramientas están diseñadas para ayudar a las organizaciones a medir el uso, la adopción y el impacto de Microsoft 365 Copilot. Por ejemplo:

  • Microsoft 365 Copilot informe de uso permite a los administradores ver un resumen de cómo la adopción, la retención y la interacción de los usuarios están con Microsoft 365 Copilot. Para obtener más información, consulte uso de Microsoft 365 Copilot.

  • La puntuación de adopción ofrece a los administradores información sobre cómo funciona su organización con Microsoft 365 Copilot. Proporciona una puntuación en una escala de 100 puntos, una vista del panel de datos de adopción & tendencias y una herramienta para crear encuestas de usuarios para recopilar comentarios.

  • El panel de Experience Insights (versión preliminar) muestra los datos de uso para ofrecer una vista más completa de la experiencia de una organización con Microsoft 365, incluida la información sobre el entrenamiento, los datos de aplicaciones y servicios y los comentarios de los usuarios.

Más información sobre Microsoft 365 Copilot

Más información sobre la inteligencia artificial responsable