Comparteix a través de


Protección de cumplimiento y seguridad de datos de Microsoft Purview para aplicaciones de IA generativa

Guía de licencias de Microsoft 365 para el cumplimiento de la seguridad &

Use Microsoft Purview para mitigar y administrar los riesgos asociados con el uso de inteligencia artificial e implementar los controles de protección y gobernanza correspondientes.

Descubra, proteja y cumpla las categorías para el uso de inteligencia artificial generativa y los datos mediante Microsoft Purview.

Microsoft Purview AI Hub se encuentra actualmente en versión preliminar y proporciona herramientas gráficas e informes fáciles de usar para obtener rápidamente información sobre el uso de la inteligencia artificial dentro de su organización. Las directivas de un solo clic le ayudan a proteger los datos y a cumplir los requisitos normativos.

Use el centro de inteligencia artificial junto con otras funcionalidades de Microsoft Purview para reforzar la seguridad y el cumplimiento de los datos de Microsoft Copilot para Microsoft 365:

Nota:

Para comprobar si los planes de licencias de su organización admiten estas funcionalidades, consulte el vínculo de guía de licencias en la parte superior de la página. Para obtener información sobre las licencias de Microsoft Copilot para Microsoft 365, consulte la descripción del servicio de Microsoft Copilot para Microsoft 365.

Use las secciones siguientes para obtener más información sobre el centro de inteligencia artificial y las funcionalidades de Microsoft Purview que proporcionan controles de cumplimiento y seguridad de datos adicionales para acelerar la adopción por su organización de Microsoft Copilot y otras aplicaciones de IA generativas. Si no está familiarizado con Microsoft Purview, puede que también le resulte útil una introducción al producto: Obtenga información sobre Microsoft Purview.

Para obtener más información general sobre los requisitos de seguridad y cumplimiento de Copilot para Microsoft 365, consulte Datos, privacidad y seguridad de Microsoft Copilot para Microsoft 365.

Microsoft Purview AI Hub proporciona información, directivas y controles para aplicaciones de inteligencia artificial

Nota:

Microsoft Purview AI Hub está actualmente en versión preliminar y está sujeto a cambios.

El centro de inteligencia artificial del portal de Microsoft Purview o el portal de cumplimiento de Microsoft Purview proporciona una ubicación de administración central para ayudarle a proteger rápidamente los datos de las aplicaciones de inteligencia artificial y supervisar de forma proactiva el uso de la inteligencia artificial. Estas aplicaciones incluyen Microsoft Copilot para Microsoft 365 y aplicaciones de inteligencia artificial de módulos de lenguaje grande (LLM) de terceros.

Captura de pantalla de ejemplo de Microsoft Purview AI Hub, analytics.

El centro de inteligencia artificial ofrece un conjunto de funcionalidades para que pueda adoptar la inteligencia artificial de forma segura sin tener que elegir entre productividad y protección:

  • Conclusiones y análisis de la actividad de inteligencia artificial en su organización

  • Directivas listas para usarse para proteger los datos y evitar la pérdida de datos en los avisos de inteligencia artificial

  • Controles de cumplimiento para aplicar directivas óptimas de control y almacenamiento de datos

Para obtener una lista de sitios de IA de terceros compatibles, como los que se usan para Bard y ChatGPT, consulte Sitios de IA admitidos por Microsoft Purview para protección de cumplimiento y seguridad de datos.

Uso del centro de inteligencia artificial

Para ayudarle a obtener información más rápida sobre el uso de la inteligencia artificial y proteger los datos, el centro de inteligencia artificial proporciona algunas directivas preconfiguradas que puede activar con un solo clic. Espere al menos 24 horas para que estas nuevas directivas recopilen datos para mostrar los resultados en el centro de inteligencia artificial o reflejar los cambios que realice en la configuración predeterminada.

Para empezar a trabajar con el centro de inteligencia artificial, puede usar el portal de Microsoft Purview o el portal de cumplimiento de Microsoft Purview. Necesita una cuenta que tenga los permisos adecuados para la administración de cumplimiento, como una cuenta que sea miembro del rol de grupo Administrador de cumplimiento de Microsoft Entra .

  1. En función del portal que use, vaya a una de las siguientes ubicaciones:

    • Inicio de sesión en el portal> de Microsoft PurviewTarjeta de centro de inteligencia artificial (versión preliminar).

      Si no se muestra la tarjeta centro de inteligencia artificial (versión preliminar), seleccione Ver todas las soluciones y, a continuación, seleccione Centro de inteligencia artificial (versión preliminar) en la sección Seguridad de datos .

    • Inicio de sesión en el portal> de cumplimiento de Microsoft PurviewCentro de inteligencia artificial (versión preliminar).

  2. En Análisis, revise la sección Introducción para obtener más información sobre el centro de inteligencia artificial y las acciones inmediatas que puede realizar. Seleccione cada una de ellas para mostrar el panel flotante para obtener más información, realizar acciones y comprobar el estado actual.

    Acción Más información
    Activar auditoría de Microsoft Purview La auditoría está activada de forma predeterminada para los nuevos inquilinos, por lo que es posible que ya cumpla este requisito previo. Si lo hace y los usuarios ya tienen licencias asignadas para Copilot, comienza a ver información sobre las actividades de Copilot en la sección Análisis de datos de inteligencia artificial más abajo en la página.
    Instalación de la extensión del explorador Microsoft Purview Requisito previo para sitios de inteligencia artificial de terceros.
    Incorporación de dispositivos a Microsoft Purview También es un requisito previo para sitios de inteligencia artificial de terceros.
    Ampliación de la información para la detección de datos Directivas de un solo clic para recopilar información sobre los usuarios que visitan sitios de inteligencia artificial generativos de terceros y les envían información confidencial. La opción es la misma que el botón Extender la información de la sección Análisis de datos de inteligencia artificial más abajo en la página.

    Para obtener más información sobre los requisitos previos, consulte Requisitos previos para el centro de inteligencia artificial.

    Para obtener más información sobre las directivas preconfiguradas que puede activar, consulte Directivas de un solo clic desde el centro de inteligencia artificial.

  3. A continuación, revise la sección Recomendaciones y decida si desea implementar las opciones que sean relevantes para el inquilino. Por ejemplo:

  4. Seleccione Directivas en el centro de inteligencia artificial, donde puede activar rápidamente las directivas predeterminadas para ayudarle a proteger los datos confidenciales enviados a sitios de inteligencia artificial generativos de terceros y proteger los datos con etiquetas de confidencialidad. Para obtener más información sobre estas directivas, consulte Directivas de un solo clic desde el centro de inteligencia artificial. Debe esperar al menos un día para que se rellenen los informes.

    En Recomendaciones y Fortificar la seguridad de los datos para IA , seleccione Introducción para obtener más información, realizar acciones y comprobar el estado actual.

    Cuando se crean las directivas, incluidas las de Analytics, puede supervisar su estado desde esta página. Para editarlos, use la solución de administración correspondiente en el portal. Por ejemplo, en Control del comportamiento no ético en IA, puede revisar y corregir las coincidencias desde la solución de cumplimiento de comunicaciones.

  5. Seleccione Explorador de actividad en el centro de inteligencia artificial para ver los detalles de los datos recopilados de las directivas. La selección de Ver detalles en cualquiera de los gráficos de la página Análisis o la página Directivas también le lleva al Explorador de actividad.

    Esta información más detallada incluye actividad, carga de trabajo y aplicación, usuario, fecha y hora, y los tipos de información confidencial detectados.

    Entre los ejemplos de actividades se incluyen la interacción con IA, la clasificación sellada, la coincidencia de reglas DLP y la visita de IA. Para obtener más información sobre los eventos, vea Eventos del Explorador de actividad.

    Entre los ejemplos de aplicaciones se incluyen Microsoft Copilot y otras aplicaciones de inteligencia artificial.

    Captura de pantalla de ejemplo de Microsoft Purview AI Hub, explorador de actividad que muestra las actividades de inteligencia artificial.

Para Microsoft Copilot para Microsoft 365, use estas directivas e información junto con protecciones y funcionalidades de cumplimiento adicionales de Microsoft Purview.

Microsoft Purview refuerza la protección de la información para Copilot

Copilot usa controles existentes para asegurarse de que los datos almacenados en el inquilino nunca se devuelven al usuario ni los usa un modelo de lenguaje grande (LLM) si el usuario no tiene acceso a esos datos. Cuando los datos tienen etiquetas de confidencialidad de su organización aplicadas al contenido, hay una capa adicional de protección:

  • Cuando un archivo está abierto en Word, Excel, PowerPoint o, de forma similar, outlook abre un correo electrónico o un evento de calendario, la confidencialidad de los datos se muestra a los usuarios de la aplicación con el nombre de la etiqueta y las marcas de contenido (como el encabezado o el texto del pie de página) que se han configurado para la etiqueta.

  • Cuando la etiqueta de confidencialidad aplica el cifrado, los usuarios deben tener el derecho de uso EXTRACT, así como VIEW, para que Copilot devuelva los datos.

  • Esta protección se extiende a los datos almacenados fuera de su inquilino de Microsoft 365 cuando está abierto en una aplicación de Office (datos en uso). Por ejemplo, almacenamiento local, recursos compartidos de red y almacenamiento en la nube.

Sugerencia

Si aún no lo ha hecho, se recomienda habilitar las etiquetas de confidencialidad para SharePoint y OneDrive y también familiarizarse con los tipos de archivo y las configuraciones de etiquetas que estos servicios pueden procesar. Cuando las etiquetas de confidencialidad no están habilitadas para estos servicios, los archivos cifrados a los que Copilot para Microsoft 365 puede acceder se limitan a los datos que se usan desde aplicaciones de Office en Windows.

Para obtener instrucciones, vea Habilitar etiquetas de confidencialidad para archivos de Office en SharePoint y OneDrive.

Además, cuando se usa el chat basado en Microsoft Copilot Graph (anteriormente Chat de Microsoft 365) que puede acceder a los datos desde una amplia gama de contenido, la confidencialidad de los datos etiquetados devueltos por Copilot para Microsoft 365 se hace visible para los usuarios con la etiqueta de confidencialidad mostrada para las citas y los elementos enumerados en la respuesta. Con el número de prioridad de las etiquetas de confidencialidad que se definen en el portal de Microsoft Purview o en el portal de cumplimiento de Microsoft Purview, la respuesta más reciente de Copilot muestra la etiqueta de confidencialidad de mayor prioridad de los datos usados para ese chat de Copilot.

Aunque los administradores de cumplimiento definen la prioridad de una etiqueta de confidencialidad, un número de prioridad más alto suele indicar una mayor confidencialidad del contenido, con permisos más restrictivos. Como resultado, las respuestas de Copilot se etiquetan con la etiqueta de confidencialidad más restrictiva.

Nota:

Si Microsoft Purview Information Protection cifra los elementos pero no tienen una etiqueta de confidencialidad, Microsoft Copilot para Microsoft 365 tampoco devolverá estos elementos a los usuarios si el cifrado no incluye los derechos de uso EXTRACT o VIEW para el usuario.

Si aún no usa etiquetas de confidencialidad, consulte Introducción a las etiquetas de confidencialidad.

Aunque las directivas DLP aún no admiten interacciones con Microsoft Copilot para Microsoft 365, se admite la clasificación de datos para tipos de información confidencial y clasificadores entrenables para identificar datos confidenciales en las solicitudes de usuario a Copilot y las respuestas.

Protección de Copilot con herencia de etiquetas de confidencialidad

Cuando se usa Copilot para crear contenido nuevo basado en un elemento que tiene aplicada una etiqueta de confidencialidad, la etiqueta de confidencialidad del archivo de origen se hereda automáticamente, con la configuración de protección de la etiqueta.

Por ejemplo, un usuario selecciona Borrador con Copilot en Word y, a continuación, Hacer referencia a un archivo. O bien, un usuario selecciona Crear presentación a partir de un archivo en PowerPoint. El contenido de origen tiene la etiqueta de confidencialidad Confidencial\Cualquiera (sin restricciones) aplicada y esa etiqueta está configurada para aplicar un pie de página que muestra "Confidencial". El nuevo contenido se etiqueta automáticamente Confidencial\Cualquiera (sin restricciones) con el mismo pie de página.

Para ver un ejemplo de esto en acción, vea la siguiente demostración de la sesión de Ignite 2023, Getting your enterprise ready for Microsoft 365 Copilot (Preparar su empresa para Microsoft 365 Copilot). En la demostración se muestra cómo la etiqueta de confidencialidad predeterminada de General se reemplaza por una etiqueta confidencial cuando un usuario redacta con Copilot y hace referencia a un archivo etiquetado. La barra de información de la cinta de opciones informa al usuario de que el contenido creado por Copilot provocó que la nueva etiqueta se aplicara automáticamente:

Si se usan varios archivos para crear contenido nuevo, la etiqueta de confidencialidad con la prioridad más alta se usa para la herencia de etiquetas.

Al igual que con todos los escenarios de etiquetado automático, el usuario siempre puede invalidar y reemplazar una etiqueta heredada (o quitarla, si no usa el etiquetado obligatorio).

Protección de Microsoft Purview sin etiquetas de confidencialidad

Incluso si no se aplica una etiqueta de confidencialidad al contenido, los servicios y los productos podrían usar las funcionalidades de cifrado del servicio Azure Rights Management. Como resultado, Copilot para Microsoft 365 todavía puede comprobar los derechos de uso VIEW y EXTRACT antes de devolver datos y vínculos a un usuario, pero no hay herencia automática de protección para nuevos elementos.

Sugerencia

Obtendrá la mejor experiencia de usuario cuando use siempre etiquetas de confidencialidad para proteger los datos y una etiqueta aplique el cifrado.

Ejemplos de productos y servicios que pueden usar las funcionalidades de cifrado del servicio Azure Rights Management sin etiquetas de confidencialidad:

  • Cifrado de mensajes de Microsoft Purview
  • Microsoft Information Rights Management (IRM)
  • Conector Microsoft Rights Management
  • Microsoft Rights Management SDK

Para otros métodos de cifrado que no usan el servicio Azure Rights Management:

  • Copilot no devolverá los correos electrónicos protegidos con S/MIME y Copilot no está disponible en Outlook cuando se abre un correo electrónico protegido con S/MIME.

  • Copilot para Microsoft 365 no puede acceder a los documentos protegidos con contraseña a menos que el usuario ya los haya abierto en la misma aplicación (datos en uso). Un elemento de destino no hereda las contraseñas.

Al igual que con otros servicios de Microsoft 365, como eDiscovery y búsqueda, copilot para Microsoft 365 admite los elementos cifrados con la clave de cliente de Microsoft Purview o su propia clave raíz (BYOK).

Microsoft Purview admite la administración de cumplimiento para Copilot

Use las funcionalidades de cumplimiento de Microsoft Purview para admitir los requisitos de riesgo y cumplimiento de Copilot para Microsoft 365.

Las interacciones con Copilot se pueden supervisar para cada usuario del inquilino. Por lo tanto, puede usar la clasificación de Purview (tipos de información confidencial y clasificadores entrenables), la búsqueda de contenido, el cumplimiento de comunicaciones, la auditoría, la exhibición de documentos electrónicos y las funcionalidades de retención y eliminación automáticas mediante directivas de retención.

Para el cumplimiento de las comunicaciones, puede analizar las solicitudes del usuario y las respuestas de Copilot para detectar interacciones inapropiadas o de riesgo o el uso compartido de información confidencial. Para obtener más información, vea Configurar una directiva de cumplimiento de comunicaciones para detectar interacciones de Copilot para Microsoft 365.

communication-compliance-microsoft-365-copilot.

Para la auditoría, los detalles se capturan en el registro de auditoría unificado cuando los usuarios interactúan con Copilot. Los eventos incluyen cómo y cuándo interactúan los usuarios con Copilot, en el que se produjo el servicio de Microsoft 365, y las referencias a los archivos almacenados en Microsoft 365 a los que se accedió durante la interacción. Si estos archivos tienen una etiqueta de confidencialidad aplicada, también se captura. En la solución Auditar del portal de Microsoft Purview o del portal de cumplimiento de Microsoft Purview, seleccione Actividades de Copilot e Interacted with Copilot (Interacted with Copilot). También puede seleccionar Copilot como carga de trabajo. Por ejemplo, desde el portal de cumplimiento:

Opciones de auditoría para identificar las interacciones del usuario con Microsoft Copilot para Microsoft 365.

Para la búsqueda de contenido, dado que el usuario solicita a Copilot y las respuestas de Copilot se almacenan en el buzón de un usuario, se pueden buscar y recuperar cuando se selecciona el buzón del usuario como origen de una consulta de búsqueda. Seleccione y recupere estos datos del buzón de origen; para ello, seleccione en el generador de consultas Agregar condición>Tipo>igual a cualquiera de> lasopciones Agregar o quitar más opciones>Interacciones de Copilot.

De forma similar para eDiscovery, se usa el mismo proceso de consulta para seleccionar buzones y recuperar las solicitudes de usuario a Copilot y las respuestas de Copilot. Una vez creada la colección y originada en la fase de revisión de eDiscovery (Premium), estos datos están disponibles para realizar todas las acciones de revisión existentes. Estas colecciones y conjuntos de revisión se pueden poner en espera o exportar. Si necesita eliminar estos datos, consulte Búsqueda y eliminación de datos para Microsoft Copilot para Microsoft 365.

En el caso de las directivas de retención que admiten la retención y eliminación automáticas, los mensajes de usuario para Copilot y las respuestas de Copilot se identifican mediante los chats de Teams de ubicación y las interacciones de Copilot. Anteriormente denominados solo chats de Teams, los usuarios no necesitan usar el chat de Teams para que esta directiva se aplique a ellos. Las directivas de retención existentes configuradas anteriormente para los chats de Teams ahora incluyen automáticamente mensajes de usuario y respuestas hacia y desde Microsoft Copilot para Microsoft 365:

Se ha actualizado la ubicación de retención de chats de Teams para incluir interacciones para Microsoft Copilot para Microsoft 365.

Para obtener información detallada sobre este trabajo de retención, consulte Información sobre la retención de Microsoft Copilot para Microsoft 365.

Al igual que con todas las directivas de retención y retenciones, si se aplica más de una directiva para la misma ubicación a un usuario, los principios de retención resuelven los conflictos. Por ejemplo, los datos se conservan durante el tiempo más largo de todas las directivas de retención aplicadas o las retenciones de eDiscovery.

Para que las etiquetas de retención conserven automáticamente los archivos a los que se hace referencia en Copilot, seleccione la opción para los datos adjuntos en la nube con una directiva de etiqueta de retención de aplicación automática: Aplicar etiqueta a datos adjuntos en la nube y vínculos compartidos en Exchange, Teams, Viva Engage y Copilot. Al igual que con todos los datos adjuntos en la nube retenidos, se conserva la versión del archivo en el momento en que se hace referencia a él.

Se ha actualizado la opción de datos adjuntos en la nube para aplicar automáticamente la etiqueta de retención para incluir interacciones para Copilot.

Para obtener información detallada sobre cómo funciona esta retención, consulte Funcionamiento de la retención con los datos adjuntos en la nube.

Para obtener instrucciones de configuración:

Otra documentación para el centro de inteligencia artificial y Copilot

Anuncio de la entrada de blog: Proteger los datos para aprovechar con confianza la inteligencia artificial generativa con Microsoft Purview

Para obtener información más detallada, consulte Consideraciones para Microsoft Purview AI Hub y protección de cumplimiento y seguridad de datos para Microsoft Copilot.

Microsoft Copilot para Microsoft 365: