Compartir a través de


Datos, privacidad y seguridad para Microsoft Copilot para Microsoft 365

Microsoft Copilot para Microsoft 365 es un sofisticado motor de procesamiento y orquestación que proporciona funcionalidades de productividad con tecnología de IA mediante la coordinación de los siguientes componentes:

  • Modelos de lenguaje grandes (LLM)
  • Contenido de Microsoft Graph como correos electrónicos, chats y documentos a los que tiene permiso para acceder.
  • Las aplicaciones de Microsoft 365 que se usan todos los días, como Word y PowerPoint.

Para obtener información general sobre cómo funcionan en conjunto estos tres componentes, consulte Información general sobre Microsoft Copilot para Microsoft 365. Para obtener vínculos a otro contenido relacionado con Microsoft Copilot para Microsoft 365, consulte la Documentación de Microsoft Copilot para Microsoft 365.

Importante

  • Microsoft Copilot para Microsoft 365 cumple con nuestros compromisos existentes de privacidad, seguridad y cumplimiento con los clientes comerciales de Microsoft 365, incluidos el Reglamento general de protección de datos (RGPD) y el European Union (UE) Data Boundary.
  • Las solicitudes, respuestas y los datos a los que se accede a través de Microsoft Graph no se usan para entrenar modelos LLM fundacionales, incluidos aquellos que usa Microsoft Copilot para Microsoft 365.

La información de este artículo está pensada para dar respuesta a las siguientes preguntas:

Nota:

Microsoft Copilot para Microsoft 365 seguirá evolucionando con el tiempo con nuevas funcionalidades. Para mantenerse al día sobre Microsoft Copilot para Microsoft 365 o para formular preguntas, visite la comunidad de Microsoft 365 Copilot en la Comunidad técnica de Microsoft.

¿Cómo usa Microsoft Copilot para Microsoft 365 los datos propietarios de su organización?

Microsoft Copilot para Microsoft 365 proporciona valor al conectar LLM a los datos de la organización. Microsoft Copilot para Microsoft 365 accede al contenido y al contexto a través de Microsoft Graph. Puede generar respuestas a partir de los datos de la organización, como los documentos del usuario, correos electrónicos, calendario, chats, reuniones y contactos. Microsoft Copilot para Microsoft 365 combina este contenido con el contexto de trabajo del usuario, como la reunión en la que está el usuario, los intercambios de correo electrónico que el usuario ha realizado sobre un tema o las conversaciones de chat del usuario de la semana anterior. Microsoft Copilot para Microsoft 365 usa esta combinación de contenido y contexto para ayudar a ofrecer respuestas contextuales precisas y pertinentes.

Importante

Las solicitudes, respuestas y los datos a los que se accede a través de Microsoft Graph no se usan para entrenar modelos LLM fundacionales, incluidos aquellos que usa Microsoft Copilot para Microsoft 365.

Microsoft Copilot para Microsoft 365 solo muestra aquellos datos de la organización a los que los usuarios tienen permiso, como mínimo, de visualización. Es importante que use los modelos de permisos disponibles en los servicios de Microsoft 365, como SharePoint, para garantizar que los usuarios o grupos adecuados tengan el acceso adecuado al contenido adecuado dentro de su organización. Esto incluye los permisos que concede a usuarios ajenos a su organización a través de soluciones de colaboración entre inquilinos, como canales compartidos en Microsoft Teams.

Cuando se escriben consultas con Microsoft Copilot para Microsoft 365, la información contenida en las consultas, los datos que se recuperan y las respuestas generadas permanecen dentro del límite del servicio de Microsoft 365, de acuerdo con nuestros compromisos actuales de privacidad, seguridad y cumplimiento. Microsoft Copilot para Microsoft 365 usa los servicios de Azure OpenAI para el procesamiento, no los servicios disponibles públicamente de OpenAI. Azure Open AI no almacena en caché el contenido del cliente y Copilot modificó las indicaciones de Copilot para Microsoft 365.

Nota:

Cuando se usa Microsoft Copilot para Microsoft 365, los datos de la organización pueden dejar el límite del servicio de Microsoft 365 en las siguientes circunstancias:

  • Cuando usa complementos para ayudar a Microsoft Copilot para Microsoft 365 a proporcionar información más relevante. Compruebe la declaración de privacidad y los términos de uso del complemento para determinar cómo controlará los datos de su organización. Para obtener información, consulte Extensibilidad de Microsoft Copilot para Microsoft 365.
  • Cuando use el complemento de contenido web para mejorar las respuestas del chat, Copilot para Microsoft 365 generará una consulta de búsqueda que se enviará a Bing para obtener la información más reciente desde la web. Para obtener más información, consulte Microsoft Copilot para Microsoft 365 y el complemento de contenido web.

La supervisión de uso indebido de Microsoft Copilot para Microsoft 365 se produce en tiempo real, sin proporcionar a Microsoft ningún acceso permanente a los datos de los clientes, ya sea para revisión humana o automatizada. Aunque la moderación del uso indebido, que incluye la revisión humana del contenido, está disponible en Azure OpenAI, los servicios de Microsoft Copilot para Microsoft 365 han optado por no participar en ella. Los datos de Microsoft 365 no se recopilan ni almacenan en Azure OpenAI.

Nota:

Es posible que usemos los comentarios de los clientes, lo cual es opcional, para mejorar Microsoft Copilot para Microsoft 365, al igual que usamos los comentarios de los clientes para mejorar otros servicios de Microsoft 365 y las aplicaciones de Microsoft 365. Los comentarios no se usan para entrenar los modelos LLM fundacionales que usa Microsoft Copilot para Microsoft 365. Los clientes pueden administrar los comentarios a través de los controles de administración. Para obtener más información, vea Administrar los comentarios de Microsoft para su organización y Proporcionar comentarios sobre Microsoft Copilot para Microsoft 365.

Datos almacenados sobre las interacciones del usuario con Microsoft Copilot para Microsoft 365

Cuando un usuario interactúa con Microsoft Copilot para aplicaciones de Microsoft 365 (como Word, PowerPoint, Excel, OneNote, Loop o Whiteboard), almacenamos datos sobre estas interacciones. Los datos almacenados incluyen la solicitud del usuario y la respuesta de Copilot, incluidas citas a cualquier información usada para establecer la respuesta de Copilot. Nos referimos a la solicitud del usuario y a la respuesta de Copilot a esa solicitud como el "contenido de las interacciones" y el registro de esas interacciones es el historial de interacciones de Copilot del usuario. Por ejemplo, estos datos almacenados proporcionan a los usuarios un historial de interacciones de Copilot en Microsoft Copilot con chats basados en Graph y reuniones en Microsoft Teams. Estos datos se procesan y almacenan en consonancia con los compromisos contractuales con el resto del contenido de la organización en Microsoft 365. Los datos se cifran mientras se almacenan y no se usan para entrenar modelos LLM fundacionales, incluidos los que usa Microsoft Copilot para Microsoft 365.

Para ver y administrar estos datos almacenados, los administradores pueden usar la búsqueda de contenido o Microsoft Purview. Los administradores también pueden usar Microsoft Purview para establecer directivas de retención para los datos relacionados con las interacciones de chat con Copilot. Para más información, consulte los siguientes artículos:

Para los chats de Microsoft Teams con Copilot, los administradores también pueden usar las API de exportación de Microsoft Teams para ver los datos almacenados.

Eliminar el historial de interacciones de usuario con Microsoft Copilot para Microsoft 365

Los usuarios pueden eliminar su historial de interacciones de Copilot, que incluye sus solicitudes y las respuestas que devuelve Copilot, en el portal Mi cuenta. Para obtener más información, consulte Eliminar el historial de interacciones de Microsoft Copilot.

Microsoft Copilot para Microsoft 365 y el EU Data Boundary

Las llamadas de Microsoft Copilot para Microsoft 365 al LLM se enrutan a los centros de datos más cercanos de la región, pero también pueden llamar a otras regiones donde haya capacidad disponible durante períodos de uso elevado.

Para los usuarios de la Unión Europea (UE), tenemos medidas de seguridad adicionales para cumplir con el Límite de datos de la UE. El tráfico de la UE permanece dentro de Límite de datos de la UE, mientras que el tráfico mundial se puede enviar a la UE y a otras regiones geográficas para el procesamiento de LLM.

Microsoft Copilot para Microsoft 365 y la residencia de datos

Copilot para Microsoft 365 cumple con los compromisos de residencia de datos, como se describe en los Términos del producto y el Anexo de protección de datos de Microsoft. Copilot para Microsoft 365 se agregó como una carga de trabajo cubierta en los compromisos de residencia de datos en los Términos del producto de Microsoft el 1 de marzo de 2024.

Las ofertas de Residencia avanzada de datos (ADR) y Multi-Geo Capabilities de Microsoft incluyen compromisos de residencia de datos para clientes de Copilot para Microsoft 365 a partir del 1 de marzo de 2024. Para los clientes de la UE, Copilot para Microsoft 365 es un servicio de EU Data Boundary. Es posible que las consultas de los clientes fuera de la UE se procesen en EE. UU., la UE u otras regiones.

Microsoft Copilot para Microsoft 365 y el complemento de contenido web

Copilot para Microsoft 365 tiene la opción de mejorar las respuestas de chat con la información más reciente de la web. Cuando el complemento de contenido web está habilitado, Copilot puede capturar información del índice de búsqueda de Bing cuando Copilot determina que la información de la web le ayudará a proporcionar una mejor respuesta y más fundamentada.

Los controles de administración y el botón de alternancia de nivel de usuario están disponibles para administrar si el complemento de contenido web está habilitado en su entorno.

Funcionamiento del complemento de contenido web

Cuando el complemento de contenido web está habilitado en el chat, Copilot para Microsoft 365 analiza la solicitud del usuario e identifica los términos en los que la conexión a la web podría mejorar la calidad de la respuesta. En función de estos términos, Copilot genera una consulta de búsqueda que se envía a la API de Bing Search para solicitar más información. Esta consulta de búsqueda es diferente de la solicitud del usuario; normalmente consta de unas pocas palabras informadas por la solicitud del usuario o por datos de Microsoft 365. No incluye automáticamente la totalidad de los documentos de Microsoft 365 asociados con la solicitud.

En la tabla siguiente se proporciona un ejemplo de la solicitud de un usuario, las consultas de búsqueda enviadas y la respuesta de Copilot.

Entidad Texto
Solicitud (tal y como la ha escrito el usuario) Estamos considerando una posible adquisición de Fabrikam. Ayúdame a elaborar un informe de resumen de 200 palabras de información financiera disponible públicamente sobre la empresa, incluida su estrategia empresarial.
Consultas de búsqueda (generadas por Copilot y enviadas a la API de Bing Search) Estrategia de Fabrikam
Finanzas de Fabrikam
Respuesta (generada por Copilot) Fabrikam es una startup de CPG que ofrece alternativas de alimentación más saludables, pero con el mismo gusto familiar que las marcas tradicionales. La empresa recopiló 4,5 millones de dólares en financiación inicial en 2019 y generó 31,5 millones de dólares en una ronda de financiación de serie B en 2022. A partir de enero de 2023, Fabrikam generó un total de 83,4 millones de dólares en financiación y está previsto que duplique sus ventas este año.

A medida que se produjo la pandemia, Fabrikam se enfrentó al desafío de pasar de tiendas físicas a ventas en línea, y ahí es donde entró en juego su estrategia de marketing de influencers. En lugar de confiar en eventos y promociones en la tienda, Fabrikam recurrió a las redes sociales y a las asociaciones con influencers para crear reconocimiento de la marca y llegar a un público más amplio. La empresa también abordó la innovación desde un ángulo original, equilibrando los impulsores de consumo tradicionales con ofertas más saludables y mediante una estrategia de distribución holística y sólida.

En resumen, Fabrikam ha generado más de 55 millones de dólares en financiación y tiene una sólida estrategia de marketing de influencers que le ha ayudado a dinamizar las ventas en línea durante la pandemia.

En este ejemplo, solo se envían las dos consultas de búsqueda a la API de Bing Search. Después de que el usuario escriba su solicitud, la experiencia de chat mostrará las consultas que se generen y envíen a Bing. Las solicitudes del usuario y las respuestas de Copilot se almacenan en Microsoft 365. Las consultas de búsqueda enviadas a la API de Bing Search por Copilot para Microsoft 365 se desasocian del identificador de usuario y del identificador de inquilino.

La API de Bing Search la proporciona Bing.com, que funciona independientemente de Microsoft 365 y tiene diferentes prácticas de gestión de datos. El uso de Bing está cubierto por el Contrato de servicios de Microsoft entre cada usuario y Microsoft, junto con la Declaración de privacidad de Microsoft. El Anexo de protección de datos (DPA) de productos y servicios de Microsoft no se aplica al uso del complemento de contenido web ni a la API de Bing Search.

Controles disponibles para administrar el uso del contenido web

Los administradores pueden bloquear el acceso al contenido web en Copilot para Microsoft 365. Para obtener más información, consulte Administrar el acceso al contenido web en las respuestas de Microsoft Copilot para Microsoft 365. Incluso cuando lo permite el administrador, los usuarios siguen teniendo la opción de usar o no el complemento web. Para obtener más información, vea Usar orígenes de datos adicionales con Microsoft 365 Copilot.

Nota:

La configuración de directiva que controla el uso de las experiencias conectadas opcionales en las Aplicaciones de Microsoft 365 no se aplica a Microsoft Copilot para Microsoft 365 y el contenido web.

Extensibilidad de Microsoft Copilot para Microsoft 365

Aunque Microsoft Copilot para Microsoft 365 ya puede usar las aplicaciones y los datos dentro del ecosistema de Microsoft 365, muchas organizaciones siguen dependiendo de diversas herramientas y servicios externos para gestionar el trabajo y la colaboración. Las experiencias de Microsoft Copilot para Microsoft 365 pueden hacer referencia a herramientas y servicios de terceros al responder a la solicitud de un usuario mediante complementos o conectores de Microsoft Graph. Los datos de los conectores de Graph se pueden devolver en las respuestas de Microsoft Copilot para Microsoft 365 si el usuario tiene permiso para acceder a esa información.

Cuando se habilitan los complementos, Microsoft Copilot para Microsoft 365 determina si necesita usar un complemento específico para ayudar a proporcionar una respuesta relevante al usuario. Si se necesita un complemento, Microsoft Copilot para Microsoft 365 genera una consulta de búsqueda para enviar al complemento en nombre del usuario. La consulta se basa en la solicitud del usuario, el historial de interacciones de Copilot y los datos a los que el usuario tiene acceso en Microsoft 365.

En la sección Aplicaciones integradas del Centro de administración de Microsoft 365, los administradores pueden ver los permisos y el acceso a los datos que requiere un complemento, así como los términos de uso y la declaración de privacidad del complemento. Los administradores tienen control total para seleccionar qué complementos se permiten en su organización. Un usuario solo puede acceder a los complementos que su administrador permite y que el usuario ha instalado o tiene asignados. Microsoft Copilot para Microsoft 365 solo usa complementos activados por el usuario.

Nota:

La configuración de directiva que controla el uso de las experiencias conectadas opcionales en las Aplicaciones de Microsoft 365 no se aplica a los complementos.

Para más información, consulte los siguientes artículos:

¿Cómo protege Microsoft Copilot para Microsoft 365 los datos organizativos?

El modelo de permisos dentro del inquilino de Microsoft 365 puede ayudar a garantizar que los datos no se filtren involuntariamente entre usuarios, grupos e inquilinos. Microsoft Copilot para Microsoft 365 presenta solo los datos a los que cada individuo puede acceder mediante los mismos controles subyacentes para el acceso a datos usados en otros servicios de Microsoft 365. El índice semántico respeta el límite de acceso basado en la identidad del usuario para que el proceso de grounding solo tenga acceso al contenido al que el usuario actual está autorizado para acceder. Para obtener más información, consulte la Documentación del servicio y la directiva de privacidad de Microsoft.

Cuando tiene datos cifrados por Microsoft Purview Information Protection, Microsoft Copilot para Microsoft 365 respeta los derechos de uso concedidos al usuario. Este cifrado se puede aplicar mediante etiquetas de confidencialidad o mediante permisos restringidos en aplicaciones de Microsoft 365 mediante Information Rights Management (IRM). Para obtener más información sobre el uso de Microsoft Purview con Microsoft Copilot para Microsoft 365, consulte Protección de cumplimiento y seguridad de datos de Microsoft Purview para aplicaciones de IA generativa.

Ya implementamos varias formas de protección para ayudar a evitar que los clientes comprometan los servicios y aplicaciones de Microsoft 365 u obtengan acceso no autorizado a otros inquilinos o al propio sistema de Microsoft 365. Aquí hay algunos ejemplos de dichas formas de protección:

  • El aislamiento lógico del contenido de cliente dentro de cada inquilino para los servicios de Microsoft 365 se logra mediante la autorización de Microsoft Entra y el control de acceso basado en roles. Para obtener más información, consulte Controles de aislamiento de Microsoft 365.

  • Microsoft usa una rigurosa seguridad física, un filtrado en segundo plano y una estrategia de cifrado de varias capas para proteger la confidencialidad y la integridad del contenido del cliente.

  • Microsoft 365 usa tecnologías del lado del servicio que cifran el contenido del cliente en reposo y en tránsito, incluidos BitLocker, el cifrado por archivo, la Seguridad de la capa de transporte (TLS) y el protocolo de seguridad de Internet (IPsec). Para obtener detalles específicos sobre el cifrado en Microsoft 365, consulte Cifrado en la nube de Microsoft.

  • Su control sobre los datos se refuerza con el compromiso de Microsoft de cumplir con las leyes de privacidad ampliamente aplicables, como el RGPD, y los estándares de privacidad, como ISO/IEC 27018, el primer código de prácticas internacionales del mundo para la privacidad en la nube.

  • Para el contenido al que se accede a través de complementos de Microsoft Copilot para Microsoft 365, el cifrado puede excluir el acceso mediante programación, lo que limita el acceso del complemento al contenido. Para obtener más información, consulte Configurar los derechos de uso para Azure Information Protection.

Cumplir con los requisitos de cumplimiento normativo

A medida que evolucione la regulación en el espacio de la inteligencia artificial, Microsoft seguirá adaptándose y respondiendo para cumplir los requisitos normativos futuros.

Microsoft Copilot para Microsoft 365 se basa en los compromisos actuales de Microsoft con la seguridad y la privacidad de los datos en la empresa. No hay ningún cambio en estos compromisos. Microsoft Copilot para Microsoft 365 se integra en Microsoft 365 y cumple todos los compromisos de privacidad, seguridad y cumplimiento existentes con los clientes comerciales de Microsoft 365. Para obtener más información, consulte Cumplimiento de Microsoft.

Además de cumplir las normativas, priorizamos un diálogo abierto con nuestros clientes, asociados y autoridades normativas para comprender mejor y abordar las preocupaciones, lo que fomenta un entorno de confianza y cooperación. Reconocemos que la privacidad, la seguridad y la transparencia no son solo características, sino requisitos previos en este panorama controlado por IA en Microsoft.

Información adicional

Microsoft Copilot para Microsoft 365 y configuración de directivas para las experiencias conectadas

Si desactiva las experiencias conectadas que analizan contenido para las Aplicaciones de Microsoft 365 en dispositivos Windows o Mac de su organización, las características de Microsoft Copilot para Microsoft 365 no estarán disponibles para los usuarios en las siguientes aplicaciones:

  • Excel
  • PowerPoint
  • OneNote
  • Word

De forma similar, las características de Microsoft Copilot para Microsoft 365 en esas aplicaciones en dispositivos Windows o Mac no estarán disponibles si desactiva el uso de experiencias conectadas para las Aplicaciones de Microsoft 365.

Para obtener más información acerca de la configuración de directiva, vea los artículos siguientes:

Acerca del contenido que crea Microsoft Copilot para Microsoft 365

No se garantiza que las respuestas que genera la inteligencia artificial generativa sean 100 % reales. Aunque seguimos mejorando las respuestas, los usuarios han de usar su sentido crítico al revisar las respuestas antes de enviarlas a otros usuarios. Las capacidades de Microsoft Copilot para Microsoft 365 proporcionan borradores y resúmenes útiles que ayudan a lograr más resultados y, al mismo tiempo, ofrecen la oportunidad de revisar lo que la IA ha generado en lugar de automatizar completamente estas tareas.

Seguimos mejorando los algoritmos para abordar de forma proactiva los problemas, como la desinformación y la falta de información, el bloqueo de contenido, la seguridad de los datos y la prevención de la promoción de contenido perjudicial o discriminador de acuerdo con nuestros principios de inteligencia artificial responsable.

Microsoft no reclama derechos de propiedad de los resultados del servicio. Dicho esto, no tomamos decisiones sobre si los resultados de un cliente están protegidos por derechos de autor o si dichos derechos deben aplicarse en otros usuarios. Esto se debe a que los sistemas de IA generativa pueden producir respuestas similares en función de solicitudes o consultas similares de diferentes clientes. Por lo tanto, diferentes clientes podrían tener derechos o reclamarlos sobre contenido que es igual o sustancialmente similar.

Si un tercero demanda a un cliente comercial por infracción de derechos de autor por usar Copilot de Microsoft o los resultados que genera, defenderemos al cliente y pagaremos la cantidad por fallos adversos o acuerdos que resulten de la demanda, siempre y cuando el cliente haya usado los filtros de protección y contenido que hemos integrado en nuestros productos. Para obtener más información, consulte Microsoft anuncia el nuevo compromiso sobre los derechos de autor de Copilot para los clientes.

¿Cómo bloquea Copilot el contenido perjudicial?

El servicio Azure OpenAI incluye un sistema de filtrado de contenido que funciona junto con los modelos principales. Los modelos de filtrado de contenido para las categorías Acoso e imparcialidad, Sexual, Violencia y Autoagresión se han entrenado y probado específicamente en varios idiomas. Este sistema funciona mediante la ejecución de una consulta de entrada y su respuesta a través de modelos de clasificación diseñados para identificar y bloquear la salida de contenido perjudicial.

Los daños relacionados con el acoso y la imparcialidad hacen referencia a cualquier contenido que use lenguaje peyorativo o discriminatorio basado en atributos como la raza, la etnicidad, la nacionalidad, la identidad y la expresión de género, la orientación sexual, la religión, la condición de inmigrante, el estado de incapacidad, la apariencia personal y el tamaño del cuerpo. La imparcialidad se ocupa de asegurarse de que los sistemas de IA traten a todos los grupos de personas de forma equitativa sin contribuir a las desigualdades sociales existentes. El contenido sexual implica debates sobre los órganos reproductivos humanos, las relaciones románticas entre los seres humanos, los actos representados en términos eróticos o afectivos, el embarazo, los actos sexuales físicos, incluidos los representados como un acto de violencia sexual, actos sexuales forzados, acoso, prostitución y abuso. La violencia describe el lenguaje relacionado con las acciones físicas destinadas a hacer daño físico o asesinar, incluidas las acciones, las armas y las entidades relacionadas con estas acciones. El lenguaje de autoagresión hace referencia a acciones deliberadas destinadas a dañarse a sí mismo o quitarse la vida.

Obtenga más información sobre el filtrado de contenido de Azure OpenAI.

¿Bloquea Copilot las inserciones de mensajes (ataques de jailbreak)?

Los ataques de jailbreak son mensajes de usuario diseñados para provocar que el modelo de IA generativa se comporte de formas para las que no ha sido entrenado o para romper las reglas que se le han indicado que siga. Microsoft Copilot para Microsoft 365 está diseñado para protegerse frente a ataques por inyección de mensajes. Obtenga más información sobre los ataques de jailbreak y cómo usar Azure AI Content Safety para detectarlos.

Comprometidos con la inteligencia artificial responsable

A medida que la inteligencia artificial se prepara para transformar nuestras vidas, debemos definir colectivamente nuevas reglas, normas y prácticas para el uso y el impacto de esta tecnología. Microsoft ha estado en un recorrido por la inteligencia artificial responsable desde 2017, cuando definimos nuestros principios y enfoque para garantizar que esta tecnología se use de forma que esté controlada por principios éticos que coloquen a las personas en primer lugar.

En Microsoft, nos guían nuestros principios de inteligencia artificial, nuestro estándar de inteligencia artificial responsable y décadas de investigación sobre inteligencia artificial, grounding y el aprendizaje automático que conserva la privacidad. Un equipo multidisciplinario de investigadores, ingenieros y expertos en directivas revisa nuestros sistemas de inteligencia artificial en busca de posibles daños y mitigaciones; refina los datos de entrenamiento; filtra para limitar el contenido perjudicial y los temas confidenciales que bloquean resultados y consultas; y aplica tecnologías de Microsoft como InterpretML y Fairlearn para ayudar a detectar y corregir el sesgo de los datos. Para dejar claro cómo toma las decisiones el sistema, hay que tener en cuenta las limitaciones, el vínculo a los orígenes y pedir a los usuarios que revisen, comprueben los hechos y ajusten el contenido en función de la experiencia en la materia. Para obtener más información, consulte Gobernanza de la inteligencia artificial: un plano técnico para el futuro.

Nuestro objetivo es ayudar a nuestros clientes a usar nuestros productos de inteligencia artificial de forma responsable, compartir nuestros aprendizajes y crear asociaciones basadas en la confianza. Para estos nuevos servicios, queremos proporcionar a nuestros clientes información sobre los usos, las capacidades y las limitaciones previstas de nuestro servicio de plataforma de inteligencia artificial para que tengan los conocimientos necesarios para tomar decisiones de implementación responsables. También compartimos recursos y plantillas con los desarrolladores de las empresas y con proveedores de software independientes (ISV) para ayudarles a crear soluciones de IA eficaces, seguras y transparentes.