Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se enumeran todas las recomendaciones de seguridad de inteligencia artificial que puede ver en Microsoft Defender for Cloud.
Las recomendaciones que aparecen en el entorno se basan en los recursos que está protegiendo y en la configuración personalizada. Puede ver las recomendaciones en el portal que se aplican a los recursos.
Para obtener información sobre las acciones que puede realizar en respuesta a estas recomendaciones, consulte Corrección de recomendaciones en Defender for Cloud.
Recomendaciones de Azure
El identificador de Entra de Microsoft debe usarse al conectar Azure AI Foundry a la cuenta de almacenamiento predeterminada.
Descripción: acceso basado en credenciales identificado por Defender for Cloud al conectarse a la cuenta de almacenamiento predeterminada en Azure AI Foundry. Esto supone un riesgo de acceso no autorizado. Para reducir el riesgo de acceso no autorizado, debe deshabilitar la autorización basada en claves y, en su lugar, usar el identificador de Microsoft Entra.
Gravedad: alta
Microsoft Entra ID debe usarse al conectarse a almacenes de datos en un proyecto de Azure AI Foundry.
Descripción: acceso basado en credenciales identificado por Defender for Cloud al conectarse a la cuenta de almacenamiento en el proyecto de Azure AI Foundry. Esto supone un riesgo de acceso no autorizado. Para reducir el riesgo de acceso no autorizado, debe deshabilitar la autorización basada en claves y, en su lugar, usar el identificador de Microsoft Entra.
Gravedad: alta
Application Insights debe usarse en Azure AI Foundry
Descripción: Defender for Cloud identificó que Application Insights no está configurado en Azure AI Foundry. AI Foundry usa Azure Application Insights para almacenar información de supervisión sobre los modelos implementados. Esto supone un riesgo de detección de amenazas retrasada y respuesta a incidentes ineficaces.
Gravedad: media
Las conexiones de red deben estar limitadas en Azure AI Foundry
Descripción: Defender for Cloud identificó el acceso a la red pública habilitado para todas las redes de Azure AI Foundry. Esto supone un riesgo de exposición a amenazas externas y puede dar lugar a infracciones de acceso y datos no autorizados. Al restringir el acceso a la red, puede asegurarse de que solo las redes permitidas puedan acceder al servicio.
Gravedad: media
(Habilitar si es necesario) Las claves administradas por el cliente deben usarse para cifrar datos en Azure AI Foundry
Descripción: Defender for Cloud identificó que las claves administradas por Microsoft se usan para cifrar los datos en Azure AI Foundry. Esto supone un riesgo de no cumplir las normativas de las organizaciones con requisitos de cumplimiento relacionados. El uso de claves administradas por el cliente (CMK) para cifrar los datos en reposo proporciona más control sobre el ciclo de vida de las claves, incluida la rotación y la administración, y a menudo es necesario para cumplir los estándares de cumplimiento. Esto no se evalúa de forma predeterminada y solo se debe aplicar cuando lo requieran los requisitos de directivas restrictivas o de cumplimiento. Si no está habilitado, los datos se cifrarán mediante claves administradas por Microsoft. Para implementar esta recomendación, actualice el parámetro "Effect" en la directiva de seguridad para el ámbito aplicable.
Gravedad: media
Los recursos del Servicios de Azure AI deben tener deshabilitado el acceso a claves (deshabilitar la autenticación local)
Descripción: se recomienda deshabilitar el acceso a claves (autenticación local) para la seguridad. Azure OpenAI Studio, que normalmente se usa en desarrollo o pruebas, requiere acceso a claves y no funcionará si el acceso a claves está deshabilitado. Una vez deshabilitada la configuración, Microsoft Entra ID se convierte en el único método de acceso, lo que permite mantener el principio de privilegio mínimo y el control pormenorizado. Más información.
Esta recomendación reemplaza a las cuentas antiguas de Cognitive Services deben tener deshabilitados los métodos de autenticación locales. Anteriormente estaba en la categoría Cognitive Services y Cognitive Search y se actualizó para cumplir con el formato de nomenclatura de Azure AI Services y alinearse con los recursos pertinentes.
Gravedad: media
Los recursos de Servicios de Azure AI deben restringir el acceso a la red
Descripción: al restringir el acceso a la red, puede asegurarse de que solo las redes permitidas puedan acceder al servicio. Esto se puede lograr mediante la configuración de reglas de red para que solo las aplicaciones de las redes permitidas puedan acceder al recurso del servicio Azure AI.
Esta recomendación reemplaza la recomendación anterior que las cuentas de Cognitive Services deben restringir el acceso a la red. Anteriormente estaba en la categoría Cognitive Services y Cognitive Search, y se actualizó para cumplir con el formato de nomenclatura de Azure AI Services y alinearse con los recursos pertinentes.
Gravedad: media
Los recursos de Servicios de Azure AI deben usar Azure Private Link
Descripción: Azure Private Link le permite conectar la red virtual a los servicios de Azure sin una dirección IP pública en el origen o destino. La plataforma Private Link reduce los riesgos de pérdida de datos mediante el control de la conectividad entre el consumidor y los servicios a través de la red troncal de Azure.
Más información sobre los vínculos privados en: ¿Qué es Azure Private Link?
Esta recomendación reemplaza la recomendación anterior que Cognitive Services debe usar private link. Anteriormente estaba en la categoría Recomendaciones de datos y se actualizó para cumplir con el formato de nomenclatura de Azure AI Services y alinearse con los recursos pertinentes.
Gravedad: media
(Habilitar si es necesario) Los recursos de los Servicios de Azure AI deben cifrar los datos en reposo con una clave administrada por el cliente (CMK)
Descripción: el uso de claves administradas por el cliente para cifrar los datos en reposo proporciona más control sobre el ciclo de vida de las claves, incluida la rotación y la administración. Esto es especialmente relevante para las organizaciones con requisitos de cumplimiento relacionados.
Esto no se evalúa de forma predeterminada y solo se debe aplicar cuando lo requieran los requisitos de directivas restrictivas o de cumplimiento. Si no está habilitado, los datos se cifrarán mediante claves administradas por la plataforma. Para implementar esto, actualice el parámetro "Effect" en la directiva de seguridad para el ámbito aplicable. (Directiva relacionada: Los recursos de Azure AI Services deben cifrar los datos en reposo con una clave administrada por el cliente (CMK))
Esta recomendación reemplaza a las cuentas de Cognitive Services de recomendación anterior debe habilitar el cifrado de datos mediante claves de cliente. Anteriormente estaba en la categoría Recomendaciones de datos y se actualizó para cumplir con el formato de nomenclatura de Azure AI Services y alinearse con los recursos pertinentes.
Gravedad: baja
Los registros de diagnóstico en los recursos de los servicios de Azure AI deben estar habilitados
Descripción: habilite los registros para los recursos de servicios de Azure AI. Esto le permite volver a crear pistas de actividad con fines de investigación, cuando se produce un incidente de seguridad o la red está en peligro.
Esta recomendación reemplaza los registros de diagnóstico de recomendación antiguos en servicio Search deben estar habilitados. Anteriormente estaba en la categoría Cognitive Services y Cognitive Search, y se actualizó para cumplir con el formato de nomenclatura de Azure AI Services y alinearse con los recursos pertinentes.
Gravedad: baja
Los registros de recursos del área de trabajo de Azure Machine Learning deben estar habilitados (versión preliminar)
Descripción y directiva relacionada: los registros de recursos permiten volver a crear rutas de actividad para usarlas con fines de investigación cuando se produce un incidente de seguridad o cuando la red está en peligro.
Gravedad: media
Las áreas de trabajo de Azure Machine Learning deben deshabilitar el acceso a la red pública (versión preliminar)
Descripción y directiva relacionada: deshabilitar el acceso a la red pública mejora la seguridad asegurándose de que las áreas de trabajo de Machine Learning no están expuestas en la red pública de Internet. Se puede controlar la exposición de las áreas de trabajo mediante la creación de puntos de conexión privados. Para obtener más información, consulte Configurar un punto de conexión privado para un área de trabajo de Azure Machine Learning.
Gravedad: media
Los procesos de Azure Machine Learning deben estar en una red virtual (versión preliminar)
Descripción y directiva relacionada: Las redes virtuales de Azure proporcionan seguridad y aislamiento mejorados para los clústeres e instancias de proceso de Azure Machine Learning, así como subredes, directivas de control de acceso y otras características para restringir aún más el acceso. Cuando se configura un proceso con una red virtual, no es posible acceder a ella públicamente; solamente se podrá acceder a ella desde máquinas virtuales y aplicaciones dentro de la red virtual.
Gravedad: media
Los procesos de Azure Machine Learning deberían tener deshabilitados los métodos de autenticación local (versión preliminar)
Descripción y directiva relacionada: deshabilitar los métodos de autenticación local mejora la seguridad asegurándose de que los procesos de Machine Learning requieren identidades de Azure Active Directory exclusivamente para la autenticación. Para obtener más información, vea los Controles de cumplimiento normativo de Azure Policy para Azure Machine Learning.
Gravedad: media
Las instancias de proceso de Azure Machine Learning se deben recrear para obtener las actualizaciones de software más recientes (versión preliminar)
Descripción y directiva relacionada: asegúrese de que las instancias de proceso de Azure Machine Learning se ejecutan en el sistema operativo disponible más reciente. La seguridad se ha mejorado y se han reducido las vulnerabilidades mediante la ejecución con las revisiones de seguridad más recientes. Para más información, consulte Administración de vulnerabilidades para Azure Machine Learning.
Gravedad: media
Los registros de recursos en las áreas de trabajo de Azure Databricks deben estar habilitados (versión preliminar)
Descripción y directiva relacionada: los registros de recursos permiten volver a crear rutas de actividad para usarlas con fines de investigación cuando se produce un incidente de seguridad o cuando la red está en peligro.
Gravedad: media
Las áreas de trabajo de Azure Databricks deberían deshabilitar el acceso a la red pública (versión preliminar)
Descripción y directiva relacionada: deshabilitar el acceso a la red pública mejora la seguridad asegurándose de que el recurso no está expuesto en la red pública de Internet. En su lugar, puede controlar la exposición de los recursos creando puntos de conexión privados. Para obtener más información, consulte Habilitar Azure Private Link.
Gravedad: media
Los clústeres de Azure Databricks deben deshabilitar la IP pública (versión preliminar)
Descripción y directiva relacionada: deshabilitar la dirección IP pública de los clústeres en áreas de trabajo de Azure Databricks mejora la seguridad asegurándose de que los clústeres no se exponen en la red pública de Internet. Para obtener más información consulte Proteger la conectividad del clúster.
Gravedad: media
Las áreas de trabajo de Azure Databricks deben estar en una red virtual (versión preliminar)
Descripción y directiva relacionada: Las redes virtuales de Azure proporcionan seguridad y aislamiento mejorados para las áreas de trabajo de Azure Databricks, así como subredes, directivas de control de acceso y otras características para restringir aún más el acceso. Para más información, consulte Implementación de Azure Databricks en la red virtual de Azure.
Gravedad: media
Las áreas de trabajo de Azure Databricks deben usar un vínculo privado (versión preliminar)
Descripción y directiva relacionada: Azure Private Link le permite conectar las redes virtuales a los servicios de Azure sin una dirección IP pública en el origen o destino. La plataforma Private Link administra la conectividad entre el consumidor y los servicios a través de la red troncal de Azure. Al asignar puntos de conexión privados a las áreas de trabajo de Azure Databricks, puede reducir el riesgo de pérdida de datos. Para más información, consulte Creación del área de trabajo y de puntos de conexión privados en la interfaz de usuario de Azure Portal.
Gravedad: media
Recomendaciones de AWS AI
AWS Bedrock debe usar AWS PrivateLink
Descripción El punto de conexión de Amazon Bedrock VPC con tecnología de AWS PrivateLink le permite establecer una conexión privada entre la VPC en su cuenta y la cuenta de servicio de Amazon Bedrock. AWS PrivateLink permite que las instancias de VPC se comuniquen con los recursos del servicio Bedrock, sin necesidad de direcciones IP públicas, lo que garantiza que los datos no están expuestos a la red pública de Internet y, por lo tanto, ayudan con sus requisitos de cumplimiento.
Gravedad media
Los agentes de AWS Bedrock deben usar límites de protección al permitir el acceso a aplicaciones de inteligencia artificial generativa
Descripción Los límites de protección para Amazon Bedrock mejoran la seguridad de las aplicaciones de inteligencia artificial generativa mediante la evaluación de las entradas de usuario y las respuestas generadas por el modelo. Estos límites de protección incluyen filtros de contenido, que ayudan a detectar y filtrar contenido dañino. En concreto, la categoría "Ataques de aviso" que incluye medidas de seguridad en los avisos del usuario para evitar jailbreaks e inyecciones de mensajes.
Gravedad media
AWS Bedrock debe tener habilitado el registro de invocación de modelos
Descripción: con el registro de invocación, puede recopilar los datos completos de solicitud, los datos de respuesta y los metadatos asociados a todas las llamadas realizadas en su cuenta. Esto le permite volver a crear seguimientos de actividad con fines de investigación cuando se produce un incidente de seguridad.
Gravedad: baja
Recomendaciones de inteligencia artificial de GCP
Se debe usar un punto de conexión de servicio privado para los puntos de conexión de Vertex AI Online (versión preliminar)
Descripción: Defender for Cloud ha identificado que un punto de conexión de servicio privado no está configurado en los puntos de conexión de Vertex AI Online. Las conexiones de punto de conexión privado aplican una comunicación segura habilitando la conectividad privada al punto de conexión de la predicción en línea. Configure una conexión de punto de conexión privado para habilitar el acceso al tráfico procedente solo de redes conocidas y evitar el acceso a todas las demás direcciones IP.
Gravedad media
El acceso raíz debe deshabilitarse en instancias de Workbench (versión preliminar)
Descripción: Defender for Cloud ha identificado que el acceso raíz no está deshabilitado en la instancia de GCP Workbench. Para reducir el riesgo de daños accidentales o malintencionados en el sistema, es esencial deshabilitar el acceso raíz en las instancias de cuadernos de Google Cloud Vertex AI. Esta medida limita los privilegios administrativos dentro de las instancias, lo que garantiza un entorno más seguro.
Gravedad media
Las direcciones IP públicas deben deshabilitarse en instancias de Workbench (versión preliminar)
Descripción: Defender for Cloud ha identificado que las direcciones IP externas se han configurado en la instancia de GCP Workbench. Para reducir la superficie expuesta a ataques, las instancias de Workbench no deben tener direcciones IP públicas. En su lugar, las instancias deben configurarse detrás de equilibradores de carga para minimizar la exposición de la instancia a Internet.
Gravedad media
(Habilitar si es necesario) Las claves administradas por el cliente deben usarse para cifrar los datos en reposo en conjuntos de datos de Vtex AI (versión preliminar)
Descripción: Defender for Cloud ha identificado que las claves administradas por el cliente no se usan en conjuntos de datos de Vtex AI. El uso de claves administradas por el cliente para cifrar los datos en reposo proporciona más control sobre el ciclo de vida de las claves, incluida la rotación y la administración. Esto es especialmente relevante para las organizaciones con requisitos de cumplimiento relacionados. Mediante el uso de claves administradas por el cliente, puede asegurarse de que los datos se cifran con claves que controla, lo que le permite administrar y rotar estas claves según sea necesario. Este control agregado puede ayudar a cumplir los requisitos de cumplimiento y mejorar la seguridad de los datos.
Severidad Bajo
La supervisión en la nube debe usarse en la instancia de GCP Workbench (versión preliminar)
Descripción Defender for Cloud ha identificado que la supervisión en la nube no está habilitada en la instancia de GCP Workbench. Habilitar la supervisión en la nube para las instancias de cuadernos de Google Cloud Vertex AI es esencial para realizar un seguimiento de las métricas de rendimiento, detectar problemas temprano y garantizar una operación óptima mediante la supervisión proactiva y las alertas.
Severidad Bajo
El apagado inactivo debe estar habilitado en instancias de Workbench (versión preliminar)
Descripción Defender for Cloud ha identificado que el apagado inactivo no está configurado en la instancia de GCP Workbench. Para optimizar los costos y mejorar la seguridad, asegúrese de que la característica Apagado inactivo está habilitada para las instancias de cuadernos de Google Cloud Vertex AI.
Severidad Bajo