Compartir a través de


Protección de cumplimiento y seguridad de datos de Microsoft Purview para aplicaciones de IA generativa

Guía de licencias de Microsoft 365 para el cumplimiento de la seguridad &

Use Microsoft Purview para mitigar y administrar los riesgos asociados con el uso de inteligencia artificial e implementar los controles de protección y gobernanza correspondientes.

Descubra, proteja y cumpla las categorías para el uso de inteligencia artificial generativa y los datos mediante Microsoft Purview.

Microsoft Purview Centro de IA se encuentra actualmente en versión preliminar y proporciona herramientas gráficas e informes fáciles de usar para obtener rápidamente información sobre el uso de la inteligencia artificial dentro de su organización. Las directivas de un solo clic le ayudan a proteger los datos y a cumplir los requisitos normativos.

Use el centro de inteligencia artificial junto con otras funcionalidades de Microsoft Purview para reforzar la seguridad y el cumplimiento de los datos para Microsoft 365 Copilot y Microsoft Copilot:

Nota:

Para comprobar si los planes de licencias de su organización admiten estas funcionalidades, consulte el vínculo de guía de licencias en la parte superior de la página. Para obtener información sobre las licencias de Microsoft 365 Copilot, consulte la descripción del servicio para Microsoft 365 Copilot.

Use las secciones siguientes para obtener más información sobre el centro de inteligencia artificial y las funcionalidades de Microsoft Purview que proporcionan controles de cumplimiento y seguridad de datos adicionales para acelerar la adopción por su organización de Microsoft 365 Copilot y otras aplicaciones de IA generativas. Si no está familiarizado con Microsoft Purview, puede que también le resulte útil una introducción al producto: Obtenga información sobre Microsoft Purview.

Para obtener más información general sobre los requisitos de seguridad y cumplimiento de Microsoft 365 Copilot, consulte Datos, privacidad y seguridad para Microsoft 365 Copilot. Para obtener Microsoft Copilot, consulte Privacidad y protecciones de Copilot.

Microsoft Purview Centro de IA proporciona información, directivas y controles para aplicaciones de inteligencia artificial

Nota:

Microsoft Purview Centro de IA está actualmente en versión preliminar y está sujeto a cambios.

El centro de inteligencia artificial del portal de Microsoft Purview o el portal de cumplimiento Microsoft Purview proporciona una ubicación de administración central que le ayuda a proteger rápidamente los datos de las aplicaciones de inteligencia artificial y supervisar de forma proactiva el uso de la inteligencia artificial. Estas aplicaciones incluyen aplicaciones de Microsoft 365 Copilot e IA de módulos de lenguaje grande (LLM) de terceros.

Vea el siguiente vídeo para ver el centro de inteligencia artificial en acción. La grabación se realizó antes de que Microsoft Copilot para Microsoft 365 se cambiara a Microsoft 365 Copilot y algunas de las páginas de navegación del centro de inteligencia artificial ahora se cambiaron. Pero la funcionalidad sigue siendo la misma.

El centro de inteligencia artificial ofrece un conjunto de funcionalidades para que pueda adoptar la inteligencia artificial de forma segura sin tener que elegir entre productividad y protección:

  • Conclusiones y análisis de la actividad de inteligencia artificial en su organización

  • Directivas listas para usarse para proteger los datos y evitar la pérdida de datos en los avisos de inteligencia artificial

  • Controles de cumplimiento para aplicar directivas óptimas de control y almacenamiento de datos

Para obtener una lista de sitios de inteligencia artificial de terceros compatibles, como los que se usan para Géminis y ChatGPT, consulte Sitios de IA admitidos por Microsoft Purview para protección de cumplimiento y seguridad de datos.

Captura de pantalla de ejemplo de Microsoft Purview Centro de IA, análisis.

Uso del centro de inteligencia artificial

Para ayudarle a obtener información más rápida sobre el uso de la inteligencia artificial y proteger los datos, el centro de inteligencia artificial proporciona algunas directivas preconfiguradas que puede activar con un solo clic. Espere al menos 24 horas para que estas nuevas directivas recopilen datos para mostrar los resultados en el centro de inteligencia artificial o reflejar los cambios que realice en la configuración predeterminada.

Para empezar a trabajar con el centro de inteligencia artificial, puede usar el portal de Microsoft Purview o el portal de cumplimiento Microsoft Purview. Necesita una cuenta que tenga los permisos adecuados para la administración de cumplimiento, como una cuenta que sea miembro del rol de grupo administrador de cumplimiento de Microsoft Entra.

  1. En función del portal que use, vaya a una de las siguientes ubicaciones:

  2. En Información general, revise la sección Introducción para obtener más información sobre el centro de inteligencia artificial y las acciones inmediatas que puede realizar. Seleccione cada una de ellas para mostrar el panel flotante para obtener más información, realizar acciones y comprobar el estado actual.

    Acción Más información
    Activar Auditoría de Microsoft Purview La auditoría está activada de forma predeterminada para los nuevos inquilinos, por lo que es posible que ya cumpla este requisito previo. Si lo hace y los usuarios ya tienen licencias asignadas para Copilot, comienza a ver información sobre las actividades de Copilot en la sección Análisis más abajo de la página.
    Instalación de la extensión del explorador Microsoft Purview Requisito previo para sitios de inteligencia artificial de terceros.
    Incorporación de dispositivos a Microsoft Purview También es un requisito previo para sitios de inteligencia artificial de terceros.
    Ampliación de la información para la detección de datos Directivas de un solo clic para recopilar información sobre los usuarios que visitan sitios de inteligencia artificial generativos de terceros y les envían información confidencial. La opción es la misma que el botón Extender la información de la sección Análisis de datos de inteligencia artificial más abajo en la página.

    Para obtener más información sobre los requisitos previos, consulte Requisitos previos para el centro de inteligencia artificial.

    Para obtener más información sobre las directivas preconfiguradas que puede activar, consulte Directivas de un solo clic desde el centro de inteligencia artificial.

  3. A continuación, revise la sección Recomendaciones y decida si desea implementar las opciones que sean relevantes para el inquilino. Estas opciones incluyen la creación de algunas directivas predeterminadas para ayudarle a proteger los datos confidenciales enviados a sitios de inteligencia artificial generativos de terceros y proteger los datos con etiquetas de confidencialidad. Entre los ejemplos de recomendaciones se incluyen:

    Puede usar el vínculo Ver todas las recomendaciones o Recomendaciones en el panel de navegación para ver todas las recomendaciones disponibles para el inquilino y su estado. Cuando se completa o descarta una recomendación, ya no la verá en la página Información general .

  4. Use la sección Informes o la página Informes del panel de navegación para ver los resultados de las directivas. Debe esperar al menos un día para que se rellenen los informes.

  5. Use la página Directivas del centro de inteligencia artificial para supervisar el estado de las directivas creadas. Para editarlos, use la solución de administración correspondiente en el portal. Por ejemplo, en Control del comportamiento no ético en IA, puede revisar y corregir las coincidencias desde la solución de cumplimiento de comunicaciones.

  6. Seleccione Explorador de actividad en el centro de inteligencia artificial para ver los detalles de los datos recopilados de las directivas.

    Esta información más detallada incluye actividad, carga de trabajo y aplicación, usuario, fecha y hora, y los tipos de información confidencial detectados.

    Entre los ejemplos de actividades se incluyen la interacción con IA, la clasificación sellada, la coincidencia de reglas DLP y la visita de IA. Las indicaciones y respuestas de Copilot se incluyen en los eventos de interacción de IA cuando se tienen las permisiones adecuadas. Para obtener más información sobre los eventos, vea Eventos del Explorador de actividad.

    Entre los ejemplos de cargas de trabajo se incluyen Microsoft Copilot y otra aplicación de inteligencia artificial.

    Captura de pantalla de ejemplo de Microsoft Purview Centro de IA, explorador de actividad que muestra las actividades de inteligencia artificial.

Para Microsoft 365 Copilot y Microsoft Copilot, use estas directivas e información junto con protecciones y funcionalidades de cumplimiento adicionales de Microsoft Purview.

Microsoft Purview refuerza la protección de la información para Copilot

Microsoft 365 Copilot usa controles existentes para asegurarse de que los datos almacenados en el inquilino nunca se devuelven al usuario ni los usa un modelo de lenguaje grande (LLM) si el usuario no tiene acceso a esos datos. Cuando los datos tienen etiquetas de confidencialidad de su organización aplicadas al contenido, hay una capa adicional de protección:

  • Cuando un archivo está abierto en Word, Excel, PowerPoint o, de forma similar, un evento de correo electrónico o calendario está abierto en Outlook, la confidencialidad de los datos se muestra a los usuarios de la aplicación con el nombre de la etiqueta y las marcas de contenido (como el encabezado o el texto del pie de página) que se han configurado para la etiqueta. Loop componentes y páginas también admiten las mismas etiquetas de confidencialidad.

  • Cuando la etiqueta de confidencialidad aplica el cifrado, los usuarios deben tener el derecho de uso EXTRACT, así como VIEW, para que Copilot devuelva los datos.

  • Esta protección se extiende a los datos almacenados fuera de su inquilino de Microsoft 365 cuando está abierto en una aplicación de Office (datos en uso). Por ejemplo, almacenamiento local, recursos compartidos de red y almacenamiento en la nube.

Sugerencia

Si aún no lo ha hecho, se recomienda habilitar las etiquetas de confidencialidad para SharePoint y OneDrive y también familiarizarse con los tipos de archivo y las configuraciones de etiquetas que estos servicios pueden procesar. Cuando las etiquetas de confidencialidad no están habilitadas para estos servicios, los archivos cifrados a los que Microsoft 365 Copilot pueden acceder se limitan a los datos que se usan desde aplicaciones de Office en Windows.

Para obtener instrucciones, vea Habilitar etiquetas de confidencialidad para archivos de Office en SharePoint y OneDrive.

Además, cuando se usa Business Chat (anteriormente chat basado en Graph y Microsoft 365 Chat) que pueden acceder a los datos desde una amplia gama de contenido, la confidencialidad de los datos etiquetados devueltos por Microsoft 365 Copilot se hace visible para los usuarios con la etiqueta de confidencialidad mostrada para las citas y los elementos enumerados en la respuesta. Con el número de prioridad de las etiquetas de confidencialidad que se definen en el portal de Microsoft Purview o el portal de cumplimiento Microsoft Purview, la respuesta más reciente de Copilot muestra la etiqueta de confidencialidad de prioridad más alta de los datos usados para ese chat de Copilot.

Aunque los administradores de cumplimiento definen la prioridad de una etiqueta de confidencialidad, un número de prioridad más alto suele indicar una mayor confidencialidad del contenido, con permisos más restrictivos. Como resultado, las respuestas de Copilot se etiquetan con la etiqueta de confidencialidad más restrictiva.

Nota:

Si los elementos se cifran mediante Microsoft Purview Information Protection pero no tienen una etiqueta de confidencialidad, Microsoft 365 Copilot tampoco devolverá estos elementos a los usuarios si el cifrado no incluye los derechos de uso EXTRACT o VIEW para el usuario.

Si aún no usa etiquetas de confidencialidad, consulte Introducción a las etiquetas de confidencialidad.

Aunque las directivas DLP no admiten la clasificación de datos para interacciones Microsoft 365 Copilot, los tipos de información confidencial y los clasificadores entrenables son compatibles con las directivas de cumplimiento de comunicaciones para identificar datos confidenciales en las solicitudes del usuario a Copilot y las respuestas.

Protección de Copilot con herencia de etiquetas de confidencialidad

Cuando se usa Microsoft 365 Copilot para crear contenido nuevo basado en un elemento que tiene aplicada una etiqueta de confidencialidad, la etiqueta de confidencialidad del archivo de origen se hereda automáticamente, con la configuración de protección de la etiqueta.

Por ejemplo, un usuario selecciona Borrador con Copilot en Word y, a continuación, Hacer referencia a un archivo. O bien, un usuario selecciona Crear presentación a partir de un archivo en PowerPoint o Editar en páginas de Business Chat. El contenido de origen tiene la etiqueta de confidencialidad Confidencial\Cualquiera (sin restricciones) aplicada y esa etiqueta está configurada para aplicar un pie de página que muestra "Confidencial". El nuevo contenido se etiqueta automáticamente Confidencial\Cualquiera (sin restricciones) con el mismo pie de página.

Para ver un ejemplo de esto en acción, watch la siguiente demostración de la sesión de Ignite 2023, "Getting your enterprise ready for Microsoft 365 Copilot". En la demostración se muestra cómo la etiqueta de confidencialidad predeterminada de General se reemplaza por una etiqueta confidencial cuando un usuario redacta con Copilot y hace referencia a un archivo etiquetado. La barra de información de la cinta de opciones informa al usuario de que el contenido creado por Copilot provocó que la nueva etiqueta se aplicara automáticamente:

Si se usan varios archivos para crear contenido nuevo, la etiqueta de confidencialidad con la prioridad más alta se usa para la herencia de etiquetas.

Al igual que con todos los escenarios de etiquetado automático, el usuario siempre puede invalidar y reemplazar una etiqueta heredada (o quitarla, si no usa el etiquetado obligatorio).

Protección de Microsoft Purview sin etiquetas de confidencialidad

Incluso si no se aplica una etiqueta de confidencialidad al contenido, los servicios y los productos podrían usar las funcionalidades de cifrado del servicio Azure Rights Management. Como resultado, Microsoft 365 Copilot puede comprobar los derechos de uso VIEW y EXTRACT antes de devolver datos y vínculos a un usuario, pero no hay ninguna herencia automática de protección para nuevos elementos.

Sugerencia

Obtendrá la mejor experiencia de usuario cuando use siempre etiquetas de confidencialidad para proteger los datos y una etiqueta aplique el cifrado.

Ejemplos de productos y servicios que pueden usar las funcionalidades de cifrado del servicio Azure Rights Management sin etiquetas de confidencialidad:

  • Cifrado de mensajes de Microsoft Purview
  • Microsoft Information Rights Management (IRM)
  • Conector Microsoft Rights Management
  • Microsoft Rights Management SDK

Para otros métodos de cifrado que no usan el servicio Azure Rights Management:

  • Copilot no devolverá los correos electrónicos protegidos con S/MIME y Copilot no está disponible en Outlook cuando se abre un correo electrónico protegido con S/MIME.

  • No se puede acceder a los documentos protegidos con contraseña mediante Microsoft 365 Copilot a menos que el usuario ya los haya abierto en la misma aplicación (datos en uso). Un elemento de destino no hereda las contraseñas.

Al igual que con otros servicios de Microsoft 365, como eDiscovery y search, los elementos cifrados con la clave de cliente de Microsoft Purview o su propia clave raíz (BYOK) son compatibles y aptos para ser devueltos por Microsoft 365 Copilot.

Microsoft Purview admite la administración de cumplimiento para Copilot

Use las funcionalidades de cumplimiento de Microsoft Purview con la protección de datos empresariales para admitir los requisitos de riesgo y cumplimiento de Microsoft 365 Copilot y Microsoft Copilot.

Las interacciones con Copilot se pueden supervisar para cada usuario del inquilino. Por lo tanto, puede usar la clasificación de Purview (tipos de información confidencial y clasificadores entrenables), la búsqueda de contenido, el cumplimiento de comunicaciones, la auditoría, la exhibición de documentos electrónicos y las funcionalidades de retención y eliminación automáticas mediante directivas de retención.

Para el cumplimiento de las comunicaciones, puede analizar las solicitudes del usuario y las respuestas de Copilot para detectar interacciones inapropiadas o de riesgo o el uso compartido de información confidencial. Para obtener más información, consulte Configuración de una directiva de cumplimiento de comunicaciones para detectar las interacciones de Copilot.

communication-compliance-microsoft-365-copilot.

Para la auditoría, los detalles se capturan en el registro de auditoría unificado cuando los usuarios interactúan con Copilot. Los eventos incluyen cómo y cuándo interactúan los usuarios con Copilot, en el que se produjo el servicio de Microsoft 365, y las referencias a los archivos almacenados en Microsoft 365 a los que se accedió durante la interacción. Si estos archivos tienen una etiqueta de confidencialidad aplicada, también se captura. En la solución Auditar desde el portal de Microsoft Purview o el portal de cumplimiento Microsoft Purview, seleccione Actividades de Copilot e Interacted with Copilot (Interactuar con Copilot). También puede seleccionar Copilot como carga de trabajo. Por ejemplo, desde el portal de cumplimiento:

Opciones de auditoría para identificar las interacciones del usuario con Copilot.

Para la búsqueda de contenido, dado que el usuario solicita a Copilot y las respuestas de Copilot se almacenan en el buzón de un usuario, se pueden buscar y recuperar cuando se selecciona el buzón del usuario como origen de una consulta de búsqueda. Seleccione y recupere estos datos del buzón de origen; para ello, seleccione en el generador de consultas Agregar condición>Tipo>igual a cualquiera de> lasopciones Agregar o quitar más opciones>Interacciones de Copilot.

De forma similar para eDiscovery, se usa el mismo proceso de consulta para seleccionar buzones y recuperar las solicitudes de usuario a Copilot y las respuestas de Copilot. Una vez creada la colección y originada en la fase de revisión de eDiscovery (Premium), estos datos están disponibles para realizar todas las acciones de revisión existentes. Estas colecciones y conjuntos de revisión se pueden poner en espera o exportar. Si necesita eliminar estos datos, consulte Búsqueda y eliminación de datos para Copilot.

En el caso de las directivas de retención que admiten la retención y eliminación automáticas, los mensajes de usuario para Copilot y las respuestas de Copilot se identifican mediante los chats de Teams de ubicación y las interacciones de Copilot. Anteriormente denominados solo chats de Teams, los usuarios no necesitan usar el chat de Teams para que esta directiva se aplique a ellos. Las directivas de retención existentes configuradas anteriormente para los chats de Teams ahora incluyen automáticamente mensajes y respuestas del usuario hacia y desde Microsoft 365 Copilot y Microsoft Copilot:

Se ha actualizado la ubicación de retención de chats de Teams para incluir interacciones para Copilot.

Para obtener información detallada sobre este trabajo de retención, consulte Información sobre la retención para Copilot.

Al igual que con todas las directivas de retención y retenciones, si se aplica más de una directiva para la misma ubicación a un usuario, los principios de retención resuelven los conflictos. Por ejemplo, los datos se conservan durante el tiempo más largo de todas las directivas de retención aplicadas o las retenciones de eDiscovery.

Para que las etiquetas de retención conserven automáticamente los archivos a los que se hace referencia en Copilot, seleccione la opción para los datos adjuntos en la nube con una directiva de etiqueta de retención de aplicación automática: Aplicar etiqueta a datos adjuntos en la nube y vínculos compartidos en Exchange, Teams, Viva Engage y Copilot. Al igual que con todos los datos adjuntos en la nube retenidos, se conserva la versión del archivo en el momento en que se hace referencia a él.

Se ha actualizado la opción de datos adjuntos en la nube para aplicar automáticamente la etiqueta de retención para incluir interacciones para Copilot.

Para obtener información detallada sobre cómo funciona esta retención, consulte Funcionamiento de la retención con los datos adjuntos en la nube.

Para obtener instrucciones de configuración:

Otra documentación para el centro de inteligencia artificial y Copilot

Anuncio de la entrada de blog: Proteger los datos para aprovechar con confianza la inteligencia artificial generativa con Microsoft Purview

Para obtener información más detallada, consulte Consideraciones para microsoft Purview Centro de IA y protección de cumplimiento y seguridad de datos para Copilot.

Microsoft 365 Copilot: