Tarjeta de aplicación: Administración de postura de seguridad de datos de Microsoft Purview

¿Qué es una tarjeta de aplicación o de plataforma?

Las tarjetas de aplicación y plataforma de Microsoft están diseñadas para ayudarle a comprender cómo funciona nuestra tecnología de inteligencia artificial, las opciones que los propietarios de aplicaciones pueden hacer que influya en el rendimiento y el comportamiento de la aplicación, y la importancia de tener en cuenta toda la aplicación, incluida la tecnología, las personas y el entorno. Las tarjetas de aplicación se crean para aplicaciones de inteligencia artificial y las tarjetas de plataforma se crean para los servicios de plataforma de IA. Estos recursos pueden admitir el desarrollo o la implementación de sus propias aplicaciones y pueden compartirse con usuarios o partes interesadas afectados por ellas.

Como parte de su compromiso con la inteligencia artificial responsable, Microsoft se adhiere a seis principios básicos: equidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. Estos principios se insertan en la Standard de inteligencia artificial responsable, que guía a los equipos en el diseño, la compilación y la prueba de aplicaciones de inteligencia artificial. Las tarjetas de plataforma y aplicación desempeñan un papel clave en la puesta en marcha de estos principios al ofrecer transparencia en cuanto a las funcionalidades, los usos previstos y las limitaciones. Para obtener más información, se anima a los lectores a explorar el informe de transparencia de IA responsable de Microsoft y el código de conducta, que describen cómo los clientes empresariales y los usuarios pueden interactuar con la inteligencia artificial de forma responsable.

Información general

Administración de postura de seguridad de datos de Microsoft Purview es una aplicación de seguridad de datos dentro del portal de Microsoft Purview que ayuda a las organizaciones a detectar, proteger e investigar datos confidenciales riesgos en su patrimonio digital. En lugar de centrarse en la infraestructura o los puntos de conexión, Administración de postura de seguridad de datos se centra en los propios datos, identificando dónde residen, quién puede acceder a ellos, cómo se usan y si están adecuadamente protegidos. Usa la inteligencia artificial para analizar patrones de acceso, comportamientos de uso compartido y brechas de directiva con el fin de exponer riesgos accionables y recomendar pasos de corrección.

Administración de postura de seguridad de datos aborda un desafío creciente en los lugares de trabajo basados en la inteligencia artificial de hoy en día: la creciente complejidad y el volumen de datos dificulta a los equipos de seguridad mantener la visibilidad y el control. La aplicación resuelve este problema mediante la consolidación de información de varias soluciones de Microsoft Purview, incluida la prevención de pérdida de datos (DLP), Insider Risk Management, la protección de la información con etiquetas de confidencialidad y Investigaciones de seguridad de datos, en una sola vista para supervisar los riesgos de datos, la cobertura de directivas y las tendencias de postura. Este enfoque unificado reemplaza la necesidad de varias herramientas y auditorías manuales, lo que ayuda a los administradores a cerrar las brechas de seguridad de datos de forma más eficaz.

Administración de postura de seguridad de datos está diseñado para funcionar de forma confiable en entornos empresariales donde las organizaciones necesitan supervisar y proteger datos confidenciales en varias ubicaciones. La aplicación incluye una experiencia de Microsoft Security Copilot incrustada que permite a estos usuarios formular preguntas en lenguaje natural sobre su posición de seguridad de datos, así como agentes de inteligencia artificial de Security Copilot que pueden tomar acciones de corrección guiadas en los riesgos detectados. Para obtener información general, consulte el vídeo de Microsoft Mechanics: Nuevos Administración de postura de seguridad de datos.

Términos clave

En la lista siguiente se proporciona un glosario de términos clave relacionados con Administración de postura de seguridad de datos:

Observabilidad de IA: característica dentro de Administración de postura de seguridad de datos que proporciona un inventario de aplicaciones y agentes de inteligencia artificial con actividad reciente, que muestra cuántos son de alto riesgo y el total con interacciones confidenciales, junto con un desglose de los agentes individuales y las directivas que los rigen.

Directiva de recopilación: directiva que captura mensajes y respuestas de interacciones de IA para Copilot en Fabric y Security Copilot, y para aplicaciones de IA que no son de Copilot, para que se puedan administrar en soluciones de Microsoft Purview.

Interacciones de Copilot: Consultas y respuestas de Copilots y agentes que Microsoft Purview admite para la seguridad de los datos y las protecciones de cumplimiento. Incluye Microsoft 365 Copilot, Security Copilot, Copilot in Fabric Copilot Studio.

Prevención de pérdida de datos (DLP): una solución de Microsoft Purview que ayuda a evitar que los usuarios compartan inapropiadamente datos confidenciales mediante técnicas de análisis de contenido, como la coincidencia de palabras clave, la evaluación de expresiones y los algoritmos de aprendizaje automático.

Evaluación de riesgos de datos: un examen automatizado o personalizado que identifica y ayuda a corregir posibles riesgos de uso compartido de datos, especialmente para sitios de SharePoint y áreas de trabajo de Fabric. Las evaluaciones predeterminadas se ejecutan semanalmente para los 100 sitios principales en función del uso.

Objetivos de seguridad de datos: flujos de trabajo guiados dentro de Administración de postura de seguridad de datos que representan un objetivo de seguridad específico, como la prevención de la exposición de datos en las interacciones de Copilot o la prevención del uso compartido excesivo. Cada objetivo agrupa las soluciones pertinentes de Microsoft Purview y las acciones prioritarias.

Agente de posición de seguridad de datos: un agente de Microsoft Security Copilot exclusivo de la versión actual de Administración de postura de seguridad de datos que usa la búsqueda de lenguaje natural entre archivos en interacciones de SharePoint, OneDrive, Teams, Exchange y Copilot. Está diseñado para comprobaciones previas a la investigación en lugar de casos formales.

Administración de riesgos internos: una solución de Microsoft Purview que usa indicadores integrados de servicio y de terceros para ayudar a identificar, evaluar y actuar sobre actividades potencialmente de riesgo por parte de los usuarios de una organización.

Directiva de un solo clic: una directiva preconfigurada dentro de Administración de postura de seguridad de datos que se puede activar con un solo clic para obtener información rápidamente y proteger los datos, sin necesidad de configuración manual de directivas.

Promptbook: secuencia integrada de solicitudes de Microsoft Security Copilot que ayuda a los usuarios a investigar rápidamente escenarios de seguridad de datos específicos, como comportamientos de usuario de riesgo o protección datos confidenciales.

Security Copilot: Microsoft Security Copilot y sus agentes es una solución de seguridad generativa con tecnología de inteligencia artificial que ayuda a los profesionales de seguridad de datos a investigar y responder a incidentes de seguridad. Dentro de Administración de postura de seguridad de datos, proporciona una experiencia de aviso abierta para formular preguntas en lenguaje natural sobre la seguridad de los datos.

Etiqueta de confidencialidad: etiqueta de Microsoft Purview Information Protection que se puede aplicar al contenido para definir y aplicar directivas de protección para datos confidenciales en nubes, aplicaciones y dispositivos.

Características o funcionalidades clave

Las características y funcionalidades clave que se describen aquí describen qué Administración de postura de seguridad de datos está diseñado para hacer y cómo se realiza en todas las tareas admitidas.

  • Panel de la posición de seguridad de los datos: la página de aterrizaje central que proporciona acceso inmediato a las métricas de posición clave, los principales objetivos a abordar en función del riesgo, una instantánea del uso de datos en todo el patrimonio de datos y un gráfico de tendencias de 30 días de la posición de seguridad de los datos de la organización. Los usuarios pueden interactuar directamente con Security Copilot a través de mensajes sugeridos en esta página.

  • Objetivos de seguridad de datos con flujos de trabajo guiados: tarjetas seleccionables que representan un objetivo de seguridad específico, como la prevención de la exposición de datos en las interacciones de Copilot, la prevención del uso compartido excesivo de datos confidenciales, la prevención de la filtración a ubicaciones de riesgo y la detección de datos confidenciales. Cada objetivo proporciona un flujo de trabajo de un extremo a otro con acciones prioritarias, directivas de un solo clic y seguimiento del progreso, para que los usuarios puedan centrarse en lograr resultados en lugar de navegar por soluciones independientes.

  • Observabilidad de IA: un inventario de aplicaciones y agentes de inteligencia artificial con actividad en los últimos 30 días, que muestra cuántos son de alto riesgo y el total con interacciones confidenciales. Proporciona un desglose de los agentes individuales, sus actividades y las directivas que los rigen, lo que permite a los administradores supervisar riesgos como el uso compartido excesivo, la filtración y los patrones de acceso inusuales.

  • Evaluaciones de riesgos de datos: exámenes automatizados y personalizados que identifican posibles riesgos de uso compartido excesivo de datos. Las evaluaciones predeterminadas se ejecutan semanalmente para los 100 principales sitios de SharePoint en función del uso. Las evaluaciones personalizadas pueden dirigirse a usuarios, sitios o áreas de trabajo de Fabric específicos. Los resultados incluyen opciones de corrección, como restringir el acceso por etiqueta, crear directivas de etiquetado automático o crear directivas de retención.

  • Recomendaciones de seguridad de datos y acciones de corrección: conclusiones y recomendaciones generadas a partir de datos procesados que ayudan a los administradores a crear o refinar directivas DLP e Insider Risk Management. Incluye directivas de un solo clic para la implementación rápida directamente desde el flujo de trabajo de Administración de postura de seguridad de datos.

  • Informes y análisis: realiza un seguimiento de la posición de seguridad de los datos de la organización a lo largo del tiempo con informes que resumen el uso de etiquetas de confidencialidad, la cobertura de directiva DLP, el comportamiento de usuario de riesgo y la actividad de la aplicación de inteligencia artificial. Los informes mejorados proporcionan filtrado avanzado, vistas personalizables y capacidades de exportación para admitir los requisitos de cumplimiento.

  • Explorador de actividad: proporciona visibilidad detallada de la actividad relacionada con el contenido, incluidas las interacciones de IA (solicitudes, respuestas e información confidencial detectada), coincidencias de reglas DLP, visitas al sitio web de inteligencia artificial y detecciones de tipos de información confidencial. Admite el filtrado por categorías de cargas de trabajo, como experiencias de Copilot, aplicaciones de inteligencia artificial empresarial y otras aplicaciones de inteligencia artificial.

  • Agente de posición de seguridad de datos: un agente con tecnología de inteligencia artificial de Microsoft Security Copilot y que usa la búsqueda de lenguaje natural para buscar datos confidenciales en las interacciones de SharePoint, OneDrive, Teams, Exchange y Copilot. Proporciona recuentos de elementos, clasificaciones de etiquetas de confidencialidad y evaluaciones de nivel de riesgo, junto con informes de información exportables. Este agente está diseñado para comprobaciones rápidas previas a la investigación.

  • Experiencia de Security Copilot insertada: una experiencia de aviso abierta en la que los usuarios pueden formular preguntas en lenguaje natural sobre su posición de seguridad de datos. Incluye cuadernos de avisos integrados para la investigación de usuarios de riesgo y la protección datos confidenciales, así como una galería de mensajes con avisos clasificados para alertas, datos en riesgo, usuarios de riesgo, actividad sospechosa y datos confidenciales.

  • Corrección controlada por agentes de inteligencia artificial: en la guía del usuario, los agentes de inteligencia artificial pueden tomar medidas directas sobre los riesgos detectados, como la eliminación de vínculos de uso compartido público, la aplicación de directivas DLP o la revocación de permisos. Los agentes de evaluación de prioridades controlados por IA revisan las alertas de DLP y Insider Risk Management, filtrando el ruido y resaltando las amenazas críticas. Todas las acciones del agente se auditan y están sujetas a revisión y aprobación del usuario.

Usos previstos

Administración de postura de seguridad de datos se puede usar en varios escenarios en diversos sectores. Algunos ejemplos de casos de uso incluyen:

  • Supervisión de la posición de seguridad de los datos en toda la empresa: un responsable de cumplimiento de una organización de servicios financieros usa Administración de postura de seguridad de datos para obtener una vista unificada de sus datos confidenciales en diferentes ubicaciones. El panel de posición presenta métricas y tendencias clave, lo que permite al responsable identificar rápidamente dónde existe datos confidenciales no protegido y realizar un seguimiento de las mejoras a lo largo del tiempo. Esto elimina la necesidad de revisar manualmente varias herramientas y paneles independientes.

  • Impedir el uso compartido excesivo antes de implementar Microsoft 365 Copilot: un administrador de TI que se prepara para una implementación de Microsoft 365 Copilot ejecuta evaluaciones de riesgos de datos para identificar sitios de SharePoint con contenido potencialmente compartido. Administración de postura de seguridad de datos expone sitios donde los archivos confidenciales tienen vínculos de uso compartido amplios o carecen de etiquetas de confidencialidad, y proporciona opciones de corrección con un solo clic, como restringir el acceso o crear directivas de etiquetado automático. Esto ayuda a la organización a reducir la exposición de datos antes de que las herramientas de inteligencia artificial comiencen a procesar ese contenido.

  • Investigación del comportamiento de usuario de riesgo con análisis asistido por inteligencia artificial: un analista de seguridad de datos recibe una alerta sobre un usuario que realiza actividades inusuales de uso compartido de archivos. Con la experiencia de Security Copilot insertada, el analista ejecuta el cuaderno de avisos de investigación de usuario de riesgo, que analiza automáticamente las actividades datos confidenciales del usuario, identifica posibles patrones de filtración, comprueba si hay anomalías y sugiere acciones de protección, todo ello a través de una secuencia de mensajes de lenguaje natural.

  • Controlar el uso de aplicaciones de inteligencia artificial en toda la organización: un equipo de seguridad de una organización sanitaria usa la observabilidad de la inteligencia artificial para supervisar con qué aplicaciones de inteligencia artificial y los agentes interactúan los empleados, cuál de esas interacciones implica datos confidenciales de los pacientes y si se aplican las directivas DLP adecuadas. El equipo usa objetivos de seguridad de datos para crear directivas dirigidas que impiden que la información confidencial de mantenimiento se comparta con aplicaciones de inteligencia artificial no autorizadas.

  • Responder a los requisitos de cumplimiento: un equipo de cumplimiento de una agencia gubernamental usa informes de Administración de postura de seguridad de datos y el explorador de actividad para demostrar que datos confidenciales está etiquetado, protegido por directivas DLP y supervisado por actividades de riesgo. Las funcionalidades de exportación y las vistas personalizables permiten al equipo generar documentación lista para auditorías alineada con sus obligaciones normativas.

  • Detección de datos confidenciales no protegidas en nuevos entornos: una organización que acaba de empezar a trabajar con Microsoft Purview usa Administración de postura de seguridad de datos para examinar automáticamente los datos y las actividades del usuario, obteniendo información de línea base y recomendaciones centradas en datos no protegidos. Esto ayuda a la organización a establecer rápidamente directivas DLP, de protección de la información y de administración de riesgos internos sin realizar un análisis manual profundo.

Administración de postura de seguridad de datos no está pensado para su uso como asistente de inteligencia artificial de uso general, para escenarios no relacionados con la seguridad de datos dentro de Microsoft Purview o para investigaciones legales formales (que requieren soluciones dedicadas, como eDiscovery y Investigaciones de seguridad de datos).

Modelos y datos de entrenamiento

Administración de postura de seguridad de datos aprovecha los agentes de inteligencia artificial y la funcionalidad de inteligencia artificial existentes. Por lo tanto, depende de cualquier configuración externa que proporcionen. Por ejemplo, la elección del modelo para Microsoft Security Copilot para la experiencia de solicitud de lenguaje natural insertada. Administración de postura de seguridad de datos también usa el análisis de contenido dentro de la prevención de pérdida de datos para detectar información confidencial mediante la coincidencia de palabras clave, la evaluación de expresiones y los algoritmos de aprendizaje automático. Para más información, consulte las tarjetas de aplicación vinculadas y la documentación.

Rendimiento

Administración de postura de seguridad de datos está diseñado para funcionar de forma confiable en entornos empresariales donde las organizaciones necesitan supervisar y proteger datos confidenciales en varias ubicaciones. La aplicación procesa y correlaciona los datos de las soluciones existentes de Microsoft Purview, como DLP, Insider Risk Management y la protección de la información, para generar información, recomendaciones y métricas de posición. El rendimiento está optimizado para las organizaciones que usan servicios en la nube de Microsoft compatibles y los resultados mejoran a medida que se configuran más soluciones de Microsoft Purview y hay más datos disponibles para su análisis.

La aplicación acepta entradas basadas en texto en sus características. Los usuarios interactúan con Administración de postura de seguridad de datos a través de la interfaz del portal de Microsoft Purview, donde pueden navegar por los paneles, configurar directivas y ejecutar evaluaciones de riesgos de datos. La experiencia de Security Copilot insertada acepta mensajes de texto en lenguaje natural y devuelve respuestas basadas en texto, incluidos resúmenes de datos, análisis de riesgos y acciones recomendadas. Data Security Posture Agent acepta consultas de búsqueda en lenguaje natural y devuelve resultados estructurados, incluidos recuentos de elementos, clasificaciones de etiquetas de confidencialidad y evaluaciones de nivel de riesgo, con la opción de exportar informes como documentos Word.

Administración de postura de seguridad de datos admite los idiomas disponibles en la interfaz del portal de Microsoft Purview. La experiencia de Security Copilot está diseñada y evaluada principalmente para solicitudes y respuestas en inglés. La detección de tipos de información confidencial admite varios lenguajes, como se documenta en las definiciones de tipos de información confidencial individuales. Los usuarios deben tener en cuenta que el rendimiento del símbolo del sistema de idioma natural y las características de búsqueda pueden variar cuando se usan idiomas distintos del inglés.

Después de la configuración inicial, Administración de postura de seguridad de datos requiere tiempo para procesar los datos de la organización. Los tiempos de examen varían en función del tamaño de la organización y de la cantidad de datos y actividades que se van a procesar, y puede tardar hasta tres días en completarse el procesamiento inicial. Las nuevas directivas requieren al menos 24 horas para recopilar datos antes de que aparezcan los resultados. Las evaluaciones de riesgos de datos requieren al menos 48 horas después de la finalización antes de que estén disponibles los resultados actualizados. Data Security Posture Agent puede buscar hasta 1 GB de contenido por consulta y las búsquedas restringidas dirigidas a usuarios o sitios específicos se realizan mucho más rápido que las búsquedas en todo el inquilino.

Limitaciones

Comprender las limitaciones de Administración de postura de seguridad de datos es fundamental para determinar si se usa dentro de límites seguros y eficaces. Aunque animamos a los clientes a aprovechar Administración de postura de seguridad de datos en sus soluciones o aplicaciones innovadoras, es importante tener en cuenta que Administración de postura de seguridad de datos no se diseñó para todos los escenarios posibles. Recomendamos a los usuarios que hagan referencia al Código de conducta de microsoft Enterprise AI Services (para organizaciones) o a la sección Código de conducta del Contrato de servicios de Microsoft (para particulares), así como a las siguientes consideraciones al elegir un caso de uso:

  • Ámbito de seguridad de datos: la experiencia de Security Copilot en Administración de postura de seguridad de datos está diseñada para responder a preguntas sobre la seguridad de datos asociadas a Insider Risk Management, Information Protection y Data Loss Prevention in Microsoft Purview. Todas las demás soluciones de Purview están actualmente fuera del ámbito de Administración de postura de seguridad de datos información. Los usuarios deben dirigir preguntas fuera de estas áreas a las herramientas específicas de la solución adecuadas.

  • Cobertura de datos: la pestaña de Standard del explorador de recursos se filtra por ubicaciones de Microsoft y que no son de Microsoft. Actualmente, las ubicaciones de Microsoft solo incluyen Microsoft 365. Las ubicaciones que no son de Microsoft son posibles mediante la integración con soluciones de asociados. Las organizaciones con datos significativos en entornos que no se incluyen deben tener en cuenta que la visibilidad a través del explorador de recursos puede ser limitada y debe complementarse con otras herramientas según sea necesario.

  • Límites de volumen de evaluación de riesgos de datos: se aplica un máximo de 200 000 elementos por ubicación a las evaluaciones de riesgo de datos personalizadas y predeterminadas. Es posible que el recuento de archivos notificado no sea preciso cuando haya más de 100 000 archivos por ubicación. Las organizaciones con sitios de SharePoint muy grandes deben considerar la posibilidad de ejecutar varias evaluaciones dirigidas. Además, OneDrive no se admite actualmente para el examen de nivel de elemento, y las evaluaciones personalizadas admiten un máximo de 10 sitios de SharePoint para el examen de nivel de elemento.

  • Requisitos de tiempo de procesamiento: una vez completada una evaluación de riesgos de datos personalizada, los resultados requieren al menos 48 horas para estar disponibles y no actualizarse después de ese punto. Se necesita una nueva evaluación para ver los cambios. Las nuevas directivas requieren al menos 24 horas antes de que aparezcan los datos. Los usuarios deben planear con antelación y evitar esperar resultados en tiempo real de las evaluaciones o directivas recién creadas.

  • Integridad de los datos del Explorador de actividad: es posible que el evento de interacción de IA no siempre muestre texto de solicitud y respuesta. En algunos casos, las solicitudes y respuestas abarcan entradas consecutivas. Cuando un usuario no tiene un buzón hospedado en Exchange Online, no se muestra ningún mensaje o respuesta. Es posible que las notas generadas por IA del facilitador de Microsoft no muestren mensajes ni respuestas. Los usuarios deben tener en cuenta estas lagunas al confiar en el explorador de actividades con fines de cumplimiento o investigación.

  • Restricciones del agente de posición de seguridad de datos: el agente admite búsquedas de contenido de hasta 1 GB de datos, pero no admite búsquedas basadas en metadatos. Si no se especifica ningún período de tiempo, los resultados tienen como valor predeterminado los últimos 7 días. El agente está diseñado para comprobaciones previas a la investigación y no es un reemplazo de herramientas de investigación formales, como eDiscovery, auditoría o Investigaciones de seguridad de datos.

  • Compatibilidad con idiomas: la experiencia de Security Copilot y el agente de posición de seguridad de datos se diseñan y evalúan principalmente para las solicitudes en inglés. El uso de otros lenguajes puede dar lugar a una precisión reducida o a respuestas incompletas. Los usuarios deben tener cuidado al trabajar fuera del ámbito de lenguaje previsto.

  • Precisión de la respuesta de IA generativa: al igual que con todos los sistemas de inteligencia artificial generativa, las respuestas Security Copilot en Administración de postura de seguridad de datos pueden contener en ocasiones información inexacta o incompleta. Los usuarios deben comprobar la información generada por IA con datos reales antes de realizar acciones consecuentes basadas en esas respuestas.

Evaluaciones

Las evaluaciones de rendimiento y seguridad evalúan si las aplicaciones de inteligencia artificial funcionan de forma confiable y segura mediante el examen de factores como la base, la relevancia y la coherencia, a la vez que se identifican los riesgos de generar contenido dañino. Las siguientes evaluaciones se llevaron a cabo con componentes de seguridad ya implementados, que también se describen en Componentes de seguridad y Mitigaciones.

Administración de postura de seguridad de datos se evaluó mediante métodos de evaluación personalizados desarrollados por el equipo del producto. La evaluación se centró en la precisión de la experiencia de Security Copilot incrustada al responder a preguntas del lenguaje natural sobre la seguridad de los datos.

El conjunto de datos de evaluación constaba de avisos pertinentes identificados por el equipo de producto y los clientes, incluido un conjunto de solicitudes de prueba ampliado basado en esquemas de tabla y descripciones. Rendimiento evaluado por Microsoft mediante una métrica de tasa de precisión: una respuesta se considera precisa si la consulta generada proporciona la información exacta solicitada en el aviso. El equipo probó en una serie de escenarios de seguridad de datos que abarcan DLP, protección de la información e información de Insider Risk Management para comprobar que Security Copilot respuestas son compatibles de hecho con los datos subyacentes y contextualmente adecuados para la pregunta del usuario.

Un resultado ideal es aquel en el que la respuesta Security Copilot devuelve exactamente la información solicitada, fundamentada en los datos reales de la organización, sin contenido inventado o engañoso. Un resultado poco óptimo sería una respuesta que devuelve datos inexactos, interpreta erróneamente la pregunta del usuario o proporciona información fuera del ámbito de las soluciones de seguridad de datos admitidas. El proceso de evaluación es iterativo, con el equipo del producto refinando los conjuntos de mensajes y los umbrales de precisión en función de los comentarios de los clientes y los patrones de uso del mundo real.

Componentes de seguridad y mitigaciones

  • Control de acceso basado en rol: Administración de postura de seguridad de datos aplica permisos granulares a través de Microsoft Entra y grupos de roles de Microsoft Purview. Las distintas actividades requieren roles específicos, como Administrador de cumplimiento para la edición, Visor de seguridad de datos para usar Security Copilot y Visor de contenido del Explorador de contenido para ver las solicitudes y respuestas de interacción de IA. Esto garantiza que los usuarios solo puedan acceder a los datos y realizar las acciones adecuadas para su rol, lo que reduce el riesgo de acceso no autorizado a información confidencial.

  • Registro de auditoría completo: todas las acciones automatizadas realizadas por los agentes de inteligencia artificial en Administración de postura de seguridad de datos se registran en los registros de auditoría. Esto incluye acciones como la eliminación de vínculos de uso compartido, la aplicación de directivas y la revocación de permisos. Los registros de auditoría y las características del explorador de actividad proporcionan un seguimiento completo de las interacciones con aplicaciones y agentes de inteligencia artificial, lo que admite investigaciones de cumplimiento, respuesta a incidentes y responsabilidad.

  • Revisión humana y aprobación de las acciones del agente: los usuarios siempre mantienen el control sobre el comportamiento del agente de inteligencia artificial dentro de Administración de postura de seguridad de datos. Los agentes de triaje controlados por IA y el agente de posición de seguridad de datos exponen recomendaciones y conclusiones, pero los usuarios revisan, aprueban o personalizan todas las acciones automatizadas antes de que surtan efecto. Las opciones "Ver actividad de agente" en toda la interfaz proporcionan un fácil acceso a la actividad del agente para la supervisión.

  • Procesamiento de análisis de participación: Administración de postura de seguridad de datos requiere la participación explícita antes de procesar los datos de la organización. El análisis de Insider Risk Management y DLP debe habilitarse para que Administración de postura de seguridad de datos pueda generar información. Esto garantiza que las organizaciones toman una decisión deliberada de compartir datos para su análisis y son conscientes del procesamiento que tiene lugar.

  • Funcionalidades de inteligencia artificial con ámbito: la experiencia de Security Copilot en Administración de postura de seguridad de datos se limita deliberadamente a los temas de seguridad de datos asociados a Insider Risk Management, Information Protection y Data Loss Prevention. No se responden preguntas fuera de este ámbito, lo que reduce el riesgo de que la inteligencia artificial genere respuestas sobre temas en los que carece de datos confiables. Data Security Posture Agent tiene un ámbito similar a las búsquedas de contenido en Microsoft 365 y está limitado a 1 GB de contenido por consulta.

  • Clasificación de nivel de riesgo para los resultados de la búsqueda: el agente de posición de seguridad de datos asigna un nivel de riesgo a cada resultado de búsqueda en función de la proximidad con la que el contenido coincida con el mensaje del usuario. Los resultados se clasifican para ayudar a los usuarios a priorizar y centrarse en los resultados más relevantes. Cuando el agente no puede determinar el nivel de riesgo, los elementos se marcan como "no clasificados", lo que proporciona transparencia sobre el nivel de confianza del agente.

  • Evaluación de las alertas y reducción de ruido: los agentes de evaluación de riesgos controlados por inteligencia artificial revisan las alertas dlp y de administración de riesgos internos y las clasifican como "necesita atención", "menos urgentes" o "no clasificadas". Este filtrado reduce la fatiga de alertas y ayuda a los analistas de seguridad a centrarse en amenazas auténticas en lugar de falsos positivos.

  • Diseño que conserva la privacidad: Insider Risk Management, que alimenta los datos en Administración de postura de seguridad de datos, incluye controles de privacidad como la seudónimo y el acceso basado en roles para garantizar la privacidad de nivel de usuario al tiempo que se habilita el análisis de riesgos. El componente Security Copilot sigue las prácticas de seguridad y privacidad de datos documentadas en la documentación de privacidad y seguridad de datos de Microsoft Security Copilot.

  • Mecanismo de comentarios en el producto: los usuarios pueden proporcionar comentarios sobre cada respuesta Security Copilot marcando como "se ve bien", "necesita mejorar" o "inadecuado". Este bucle de comentarios ayuda a Microsoft a mejorar continuamente la calidad y la seguridad de las respuestas generadas por inteligencia artificial.

Procedimientos recomendados para implementar y adoptar Administración de postura de seguridad de datos

La inteligencia artificial responsable es un compromiso compartido entre Microsoft y sus clientes. Aunque Microsoft crea aplicaciones de inteligencia artificial con seguridad, equidad y transparencia en el núcleo, los clientes desempeñan un papel fundamental en la implementación y el uso de estas tecnologías de forma responsable dentro de sus propios contextos. Para admitir esta asociación, ofrecemos los siguientes procedimientos recomendados para los implementadores y los usuarios finales con el fin de ayudar a los clientes a implementar la inteligencia artificial responsable de forma eficaz.

Los implementadores y los usuarios finales deben:

  • Tenga cuidado y evalúe los resultados al usar Administración de postura de seguridad de datos para decisiones consecuentes o en dominios confidenciales: las decisiones consecuentes son aquellas que pueden tener un impacto legal o significativo en el acceso de una persona a la educación, el empleo, las plataformas financieras, los beneficios gubernamentales, la atención sanitaria, la vivienda, los seguros, las plataformas legales, o que podrían dar lugar a daños físicos, psicológicos o financieros. Los dominios confidenciales, como las plataformas financieras, la atención sanitaria y la vivienda, requieren atención especial debido a la posibilidad de un impacto desproporcionado en diferentes grupos de personas. Al usar la inteligencia artificial para tomar decisiones en estas áreas, asegúrese de que las partes interesadas afectadas puedan comprender cómo se toman las decisiones, apelar decisiones y actualizar los datos de entrada pertinentes.

  • Evaluar consideraciones legales y reglamentarias: los clientes deben evaluar posibles obligaciones legales y reglamentarias específicas al usar cualquier plataforma y solución de inteligencia artificial, que puede no ser adecuada para su uso en todos los sectores o escenarios. Además, las plataformas o soluciones de IA no están diseñadas para y no se pueden usar de maneras prohibidas en términos de servicio aplicables y códigos de conducta pertinentes.

Los usuarios finales deben:

  • Ejercer la supervisión humana cuando corresponda: la supervisión humana es una medida de seguridad importante al interactuar con aplicaciones de inteligencia artificial. Aunque mejoramos continuamente nuestras aplicaciones de inteligencia artificial, es posible que la inteligencia artificial siga cometiendo errores. Los resultados generados pueden ser inexactos, incompletos, sesgados, desalineados o irrelevantes para los objetivos previstos. Esto podría ocurrir debido a varias razones, como la ambigüedad en las entradas o limitaciones de los modelos subyacentes. Por lo tanto, los usuarios deben revisar las respuestas generadas por Administración de postura de seguridad de datos y comprobar que coinciden con sus expectativas y requisitos.

  • Tenga en cuenta el riesgo de dependencia excesiva: la dependencia excesiva de la inteligencia artificial se produce cuando los usuarios aceptan salidas de IA incorrectas o incompletas, principalmente porque los errores en las salidas de IA pueden ser difíciles de detectar. Para el usuario final, el exceso de dependencia podría dar lugar a una disminución de la productividad, la pérdida de confianza, el abandono de aplicaciones, la pérdida financiera, daños psicológicos, daños físicos, entre otros. En el contexto de Administración de postura de seguridad de datos, la dependencia excesiva podría significar actuar sobre una información inexacta Security Copilot sin comprobarla con datos reales, lo que podría dar lugar a cambios de directiva erróneos o riesgos de seguridad perdidos.

  • Preguntas de ámbito Security Copilot a las áreas admitidas: para obtener los mejores resultados, haga preguntas sobre los temas de seguridad de datos asociados a Insider Risk Management, Information Protection y Data Loss Prevention. Las preguntas fuera de estas áreas pueden devolver respuestas incompletas o inexactas porque se encuentran fuera de los datos Administración de postura de seguridad de datos está diseñada para analizar.

  • Use mensajes específicos y dirigidos: cuando use la experiencia de Security Copilot o el agente de posición de seguridad de datos, proporcione avisos claros y específicos que incluyan detalles pertinentes, como nombres de usuario, períodos de tiempo y ubicaciones de datos. Por ejemplo, en lugar de preguntar "mostrarme riesgos de seguridad", pregunte "mostrar todas las actividades datos confidenciales realizadas por user@contoso.com en los últimos 30 días". Las solicitudes más específicas producen resultados más precisos y accionables.

  • Proporcionar comentarios para mejorar la calidad: use la opción de comentarios del producto para marcar las respuestas Security Copilot como "se ve bien", "necesita mejorar" o "inadecuado". Estos comentarios ayudan a Microsoft a identificar y abordar problemas de calidad en las respuestas generadas por IA.

Los implementadores deben:

  • Configurar los permisos adecuados antes de conceder acceso: asigne los roles mínimos necesarios a cada usuario en función de sus responsabilidades. Use la tabla de permisos detallada de la documentación de permisos de Administración de postura de seguridad de datos para determinar qué grupos de roles son necesarios para cada actividad. La restricción del acceso reduce el riesgo de que los usuarios no autorizados vean datos confidenciales o realicen acciones no intencionadas.

  • Complete todas las tareas de configuración antes de basarse en la información: asegúrese de que las directivas de auditoría, análisis y recopilación estén configuradas correctamente antes de evaluar Administración de postura de seguridad de datos información. La configuración incompleta puede dar lugar a que falten datos y métricas de posición inexactas. Permita un tiempo de procesamiento suficiente (hasta tres días para los exámenes iniciales, al menos 24 horas para las nuevas directivas) antes de tomar decisiones basadas en Administración de postura de seguridad de datos datos.

  • Usar búsquedas restringidas para un procesamiento eficaz: al usar el agente de posición de seguridad de datos, configure las búsquedas para dirigirse a usuarios, grupos o sitios específicos en lugar de ejecutar exámenes en todo el inquilino. Las búsquedas restringidas son significativamente más rápidas y eficientes, lo que reduce el tiempo de procesamiento y produce resultados más centrados.

  • Revisar y refinar directivas de un solo clic después de la implementación: las directivas de un solo clic proporcionan un punto de partida útil, pero deben revisarse y personalizarse en función de los requisitos específicos de su organización. Después de la implementación inicial, supervise los resultados de la directiva a través de Administración de postura de seguridad de datos informes y explorador de actividad, y ajuste la configuración de directiva en la solución correspondiente (DLP, Insider Risk Management o Information Protection) para que coincida con las necesidades de cumplimiento y tolerancia a riesgos de su organización.

  • Establecer una cadencia de revisión regular: use Administración de postura de seguridad de datos tendencias e informes de postura para realizar un seguimiento de la posición de seguridad de los datos de su organización a lo largo del tiempo. Establezca una cadencia regular para revisar las evaluaciones de riesgos de datos, la cobertura de directivas y las métricas de observación de IA. Las revisiones periódicas ayudan a identificar los riesgos emergentes, las brechas de directiva y los cambios en el comportamiento del usuario antes de que se conviertan en incidentes de seguridad.

  • Planear la configuración de directivas de recopilación: si su organización necesita capturar mensajes y respuestas de Copilot en Fabric y Security Copilot, y para aplicaciones de IA que no son de Copilot, configure directivas de recopilación con la opción de captura de contenido seleccionada. En el caso de las aplicaciones que usan estas directivas de recopilación, los eventos de interacción de IA en el explorador de actividad no mostrarán texto de solicitud y respuesta, lo que limita la utilidad de los datos para la supervisión del cumplimiento.

Más información sobre Administración de postura de seguridad de datos

Para obtener instrucciones adicionales o para obtener más información sobre el uso responsable de Administración de postura de seguridad de datos, se recomienda revisar la siguiente documentación:

Más información sobre la inteligencia artificial responsable