Share via


Gestion de la posture de sécurité de l’IA

Le plan CSPM (Gestion de la posture de sécurité cloud) de Microsoft Defender pour le cloud fournit des fonctionnalités de gestion de la posture de sécurité de l’IA qui sécurisent les applications d’IA générative de l’entreprise, multi ou hybride (actuellement Azure et AWS), tout au long du cycle de vie de l’application. Defender pour le cloud réduit les risques liés aux charges de travail IA dans le cloud en effectuant les opérations suivantes :

  • Découverte de la facture d’IA générative (Bill of Materials, BOM), qui inclut des composants d’application, des données et des artefacts IA de code vers le cloud.
  • Renforcement de la posture de sécurité des applications d’IA générative avec des recommandations intégrées et en explorant et en corrigeant les risques de sécurité.
  • Utilisation de l’analyse du chemin d’attaque pour identifier et corriger les risques.

Diagramme du cycle de vie de développement couvert par la gestion de la posture de sécurité IA de Defender pour le cloud.

Découverte d’applications d’IA générative

Defender pour le cloud découvre les charges de travail IA et identifie les détails du BOM de l’IA de votre organisation. Cette visibilité vous permet d’identifier et de résoudre les vulnérabilités et de protéger les applications d’IA générative contre les menaces potentielles.

Defenders pour le cloud découvre automatiquement et en permanence les charges de travail IA déployées dans les services suivants :

  • Azure OpenAI Service
  • Azure Machine Learning
  • Amazon Bedrock

Defender pour le cloud peut également découvrir des vulnérabilités dans les dépendances de bibliothèque d’IA générative telles que TensorFlow, PyTorch et Langchain, en analysant le code source à la recherche des défauts de configuration de l’infrastructure en tant que code (IaC) et les images conteneur à la recherche de vulnérabilités. La mise à jour ou la mise à jour corrective régulière des bibliothèques peut empêcher les attaques, protéger les applications d’IA générative et maintenir leur intégrité.

Avec ces fonctionnalités, Defender pour le cloud offre une visibilité complète des charges de travail IA du code au cloud.

Réduction des risques liés aux applications d’IA générative

Defender CSPM fournit des insights contextuels sur la posture de sécurité de l’IA d’une organisation. Vous pouvez réduire les risques au sein de vos charges de travail IA à l’aide des recommandations de sécurité et de l’analyse du chemin d’attaque.

Exploration des risques à l’aide de recommandations

Defender pour le cloud évalue les charges de travail IA et émet des recommandations relatives à l’identité, à la sécurité des données et à l’exposition à Internet pour identifier et hiérarchiser les problèmes de sécurité critiques dans les charges de travail IA.

Détection de configurations incorrectes IaC

La sécurité DevOps détecte les défauts de configuration IaC, qui peuvent exposer des applications d’IA générative à des vulnérabilités de sécurité, telles que la sur-exposition des contrôles d’accès ou l’exposition publique de services par inadvertance. Ces erreurs de configuration peuvent entraîner des violations de données, des accès non autorisés et des problèmes de conformité, en particulier lors de la gestion de réglementations strictes en matière de confidentialité des données.

Defender pour le cloud évalue votre configuration d’applications d’IA générative et fournit des recommandations de sécurité pour améliorer la posture de sécurité de l’IA.

Les défauts de configuration détectés doivent être corrigés dès le début du cycle de développement pour éviter des problèmes plus complexes plus tard.

Les vérifications de sécurité IaC actuelles sont les suivantes :

  • Utilisation de points de terminaison privés Azure AI Service
  • Restriction des points de terminaison de service Azure AI
  • Utilisation de l’identité managée pour les comptes de service Azure AI
  • Utilisation de l’authentification basée sur l’identité pour les comptes de service Azure AI

Exploration des risques avec l’analyse des chemins d’attaque

L’analyse des chemins d’attaque détecte et atténue les risques liés aux charges de travail IA, en particulier lors de la mise au point (liaison de modèles IA à des données spécifiques) et d’un réglage précis (ajustement d’un modèle préentraîné sur un jeu de données spécifique pour améliorer ses performances sur une tâche associée), où les données peuvent être exposées.

En analysant en permanence les charges de travail IA, l’analyse du chemin d’attaque peut identifier les faiblesses et les vulnérabilités potentielles et suivre les recommandations. En outre, il s’étend aux cas où les données et les ressources de calcul sont distribuées dans Azure, AWS et GCP.