Partager via


Protéger l’utilisation des applications et données IA de votre organisation

Cet article explique comment utiliser des fonctionnalités spécifiques à la protection des applications IA et des données avec lesquelles ils interagissent.

  • Protéger vos données sensibles dans les invites utilisateur et les données générées par l’IA
  • Se défendre contre les menaces émergentes telles que les injections de requête

Il s’agit du troisième article d’une série. Si vous n’avez pas encore accompli les tâches décrites dans Préparer la sécurité de l’IA et découvrir des applications et des données IA, commencez par ces articles pour préparer votre environnement avec des fonctionnalités prescrites dans cet article.

Diagramme qui montre l'aspect Protect de la sécurité pour les séries d'IA.

Utilisez cet article avec cette ressource :

Microsoft fournit un large éventail de fonctionnalités pour protéger les applications et données IA. Cet article traite de ces éléments dans deux catégories : la protection des données et la protection contre les menaces.

Diagramme montrant les fonctionnalités de protection des applications et des données IA.

Les deux tableaux suivants décrivent l’illustration et décrivent également les étapes d’implémentation de ces fonctionnalités.

Tableau 1 : fonctionnalités de protection des données

Étape Tâche Étendue
1 Appliquez les contrôles de partage excessif de SharePoint pour exclure rapidement les sites sensibles et les données du champ d'application des applications IA. Sites et fichiers dans votre environnement Microsoft 365.
2 Utilisez la gestion de la posture de sécurité des données (DSPM) liée à l'IA pour identifier où se produisent les partages excessifs et pour trouver des lacunes dans la couverture de vos stratégies pour les étiquettes de sensibilité et les stratégies de prévention de la perte de données (DLP). Copilotes, agents et autres applications IA qui utilisent des modules LLM tiers, y compris les sites d’IA pris en charge.
Applications IA dans d’autres fournisseurs de cloud via le Kit de développement logiciel (SDK) Purview.
3 Continuez à progresser sur les étiquettes de confidentialité et les stratégies de protection contre la perte de données (DLP). Sites, fichiers et appareils dans votre environnement Microsoft 365.
Applications SaaS quand elles sont intégrées à Defender pour Cloud Apps.
Applications IA dans Azure et d’autres fournisseurs de cloud via le Kit de développement logiciel (SDK) Purview.
4 Dans la gestion des risques internes (IRM), appliquez le modèle IA risqué pour identifier le comportement à risque dans les applications IA. Sites web d’INTELLIGENCE artificielle générative.
Microsoft 365 Copilot, Microsoft Copilot, Copilot Studio, services d'Azure AI.
Applications IA dans d’autres fournisseurs de cloud via le Kit de développement logiciel (SDK) Purview.
5 Configurer la protection adaptative pour la gestion des risques internes afin d’augmenter la protection des données en fonction du risque des utilisateurs Sites, fichiers et appareils dans votre environnement Microsoft 365.

Tableau 2 : fonctionnalités de protection contre les menaces

Étape Tâche Étendue
1 Utilisez Defender pour Cloud Apps pour vous avertir quand de nouvelles applications IA sont utilisées, pour calculer les scores de risque pour les applications IA et pour autoriser ou bloquer ces applications dans votre environnement. Defender pour Cloud Apps fournit des protections supplémentaires pour Microsoft 365 Copilot. Applications SaaS d'IA
2 Defender pour le cloud

Découvrir les charges de travail IA déployées dans votre environnement et obtenir des insights de sécurité avec Microsoft Defender pour cloud
Applications d'IA personnalisées basées sur Azure AI

Protéger les données IA

Ces fonctionnalités vous aident à découvrir et atténuer efficacement les principaux risques associés au surpartage des données, à l’utilisation des données sensibles et aux comportements à risque des utilisateurs. Ces fonctionnalités sont étendues aux protections pour les applications et données IA dans votre environnement.

Étape 1 : Appliquer des contrôles de sur-partage SharePoint

Les contrôles de surpartage SharePoint incluent des contrôles intégrés à SharePoint, tels que des autorisations restreintes et des fonctionnalités de module complémentaire dans SharePoint Advanced Management pour renforcer la gouvernance du contenu dans le cadre du processus de déploiement de Microsoft Copilot. Les contrôles SharePoint pour l'excès de partage vous aident à :

  • Limitez temporairement la recherche Copilot à une liste de sites que vous spécifiez (Recherche SharePoint restreinte).
  • Identifiez rapidement les sites qui contiennent potentiellement des données sursharedées ou du contenu sensible (rapports de gouvernance d’accès aux données).
  • Marquer des sites pour que les utilisateurs ne puissent pas les trouver via la recherche dans Copilot ou à l'échelle de l'organisation (découverte de contenu restreinte dans SharePoint Advanced Management).
  • créez des stratégies de site inactives pour gérer et réduire automatiquement les sites inactifs (Gestion avancée SharePoint).
  • Restreindre l’accès aux sites SharePoint et OneDrive aux utilisateurs d’un groupe spécifique (stratégies de contrôle d’accès restreint dans SharePoint Advanced Management).

Pour démarrer avec les contrôles de partage excessif, utilisez les ressources suivantes.

Tâche Ressources recommandées
Passez en revue l’illustration et la description des contrôles de sur-partage que vous pouvez utiliser avec Microsoft 365 Copilot Architecture de protection et d'audit des données Microsoft 365 Copilot
Plan téléchargeable pour empêcher le partage excessif Microsoft 365 Copilot : un plan pour le surpartage
En savoir plus sur SharePoint Advanced Management Microsoft SharePoint Premium - Vue d’ensemble de Gestion avancée de SharePoint

Étape 2 - Protéger les données via DSPM pour l’IA

Utilisez DSPM pour que l'IA apprenne où se déroule le partage excessif et pour identifier les lacunes dans la couverture de vos politiques pour les étiquettes de sensibilité et les politiques DLP.

Un excellent point de départ est le rapport d'évaluation de la semaine.

Capture d’écran des évaluations des données d’une semaine de novembre.

Vous pouvez explorer des rapports individuels pour en savoir plus sur l’emplacement où vous avez des lacunes dans le partage de contrôles, d’étiquettes et de stratégies DLP afin de pouvoir résoudre rapidement ces problèmes.

Capture d’écran montrant les 5 principaux sites SharePoint avec des fichiers non étiquetés dans les invites Copilot.

Pour chaque rapport, DSPM pour IA fournit des recommandations pour améliorer votre sécurité des données. Utilisez le lien Afficher toutes les recommandations ou recommandations dans le volet de navigation pour afficher toutes les recommandations disponibles pour votre locataire et leur état.

Capture d’écran montrant les recommandations relatives au locataire et à son état.

Utilisez les ressources suivantes pour protéger les applications et les données IA avec DSPM pour l’IA.

Tâche Ressources recommandées
En savoir plus sur DSPM pour l’IA Utilisation de DSPM pour l’IA
En savoir plus sur les conditions préalables et sur le fonctionnement des stratégies par défaut et des stratégies en un clic Considérations relatives à DSPM pour l’IA
Pour les applications IA dans d’autres fournisseurs de cloud, découvrez comment tester l’intégration à DSPM pour l’IA à l’aide du Kit de développement logiciel (SDK) Purview Guide pratique pour tester une application IA intégrée au Kit de développement logiciel (SDK) Purview

Étape 3 : continuer à identifier les lacunes dans les étiquettes de confidentialité et les stratégies DLP

Dans Préparer la sécurité de l’IA, vous avez utilisé les outils de gestion de la posture de sécurité des données Microsoft Purview, DSPM et DSPM pour l’IA, afin de hiérarchiser la protection de vos données sensibles. Continuez à revoir ces outils pour identifier les lacunes de votre couverture de stratégie et découvrir où vous devez continuer à investir dans l’application d’étiquettes de confidentialité et de stratégies DLP. En outre, étendez les étiquettes de confidentialité et les stratégies DLP aux applications SaaS à l’aide de Defender pour Cloud Apps.

Utilisez les ressources suivantes pour progresser avec Microsoft Purview.

Tâche Ressources recommandées
En savoir plus sur les stratégies de déploiement recommandées pour la protection des informations Déployer une solution de protection des informations avec Microsoft Purview
Étendre les étiquettes de confidentialité et les stratégies DLP aux applications SaaS à l’aide de Defender pour Cloud Apps Déployer la protection des informations pour les applications SaaS
Définir vos étiquettes et stratégies de confidentialité qui protégeront les données de votre organisation Bien démarrer avec les étiquettes de confidentialité
Créer et configurer des étiquettes de confidentialité ainsi que leurs stratégies
Restreindre l'accès au contenu grâce à la mise en place d'un chiffrement par les étiquettes de confidentialité
Étiqueter et protéger des données pour les applications et services Microsoft 365 Gérer les étiquettes de confidentialité dans les applications Office
Activer les étiquettes de confidentialité pour les fichiers Office dans SharePoint et OneDrive
Paramétrer vos stratégies DLP Créer et déployer des stratégies de protection contre la perte de données
Pour les applications IA développées dans Auzre ou d’autres fournisseurs de cloud, découvrez comment appliquer des étiquettes de confidentialité et des stratégies DLP à l’aide du Kit de développement logiciel (SDK) Purview Qu’est-ce que le Kit de développement logiciel (SDK) Purview
Utiliser les API Microsoft Graph Purview
Guide pratique pour tester une application IA intégrée au Kit de développement logiciel (SDK) Purview

Étape 4 : Appliquer le modèle IA risqué dans Gestion des risques internes (IRM)

Microsoft Purview Insider Risk Management (IRM) inclut des modèles de stratégie prédéfinis que vous pouvez appliquer à votre environnement, y compris l’utilisation de Risky AI. Les modèles IRM sont des conditions de stratégie prédéfinies qui définissent les types d’indicateurs de risque et le modèle de scoring des risques utilisés par la stratégie.

La stratégie visant les utilisations à risque de l'IA peut aider à détecter et à activer le scoring des risques pour les prompts et les réponses dans l'ensemble des outils d'IA de votre organisation. IRM vous aide à examiner et à prendre des mesures sur les activités à risque liées à l’IA.

Utilisez les ressources suivantes pour commencer à utiliser Insider Risk Management et appliquer le modèle de stratégie d’utilisation de l’IA risquée.

Tâche Ressources recommandées
Commencez avec la Gestion des risques internes et découvrez les principaux scénarios qui peuvent bénéficier à votre organisation En savoir plus sur la gestion des risques internes
Appliquer le modèle d’INTELLIGENCE artificielle risquée En savoir plus sur les modèles de stratégie de gestion des risques internes | Microsoft Learn
En savoir plus sur les scénarios clés pour l’IA et afficher des exemples de rapports Gestion des risques internes permettant d’accroître la visibilité de l’utilisation de l’IA et les enquêtes de sécurité sur l’IA à risque
Pour les applications IA développées avec le Kit de développement logiciel (SDK) Purview, testez l’intégration de Insider Risk Management Guide pratique pour tester une application IA intégrée au Kit de développement logiciel (SDK) Purview

Étape 5 : configurer la protection adaptative pour la gestion des risques internes

La protection adaptative dans Microsoft Purview Insider Risk Management affecte dynamiquement un niveau de risque aux utilisateurs, puis applique des stratégies que vous créez aux utilisateurs avec un risque modéré ou élevé. Les stratégies peuvent implémenter des actions de protection contre la perte de données accrues, préserver le contenu supprimé ou appliquer des exigences d’accès conditionnel plus élevées.

Utilisez les ressources suivantes pour commencer à utiliser la protection adaptative.

Tâche Ressources recommandées
Commencez avec la Gestion des risques internes et découvrez les principaux scénarios qui peuvent bénéficier à votre organisation En savoir plus sur la gestion des risques internes
En savoir plus sur les scénarios clés pour l’IA et afficher des exemples de rapports Gestion des risques internes permettant d’accroître la visibilité de l’utilisation de l’IA et les enquêtes de sécurité sur l’IA à risque
Appliquer le modèle d’INTELLIGENCE artificielle risquée En savoir plus sur les modèles de stratégie de gestion des risques internes
Examiner et agir sur les activités à risque internes Examiner les activités de gestion des risques internes
Prendre des mesures sur les cas de gestion des risques internes

Tirer le meilleur parti de la protection contre les menaces pour l’IA

Defender pour Cloud Apps et Defender for Cloud incluent des fonctionnalités permettant de vous tenir informé de l’utilisation de nouvelles applications IA et d’appliquer des contrôles appropriés.

Étape 1 : utiliser Defender pour cloud Apps pour trier et protéger l’utilisation d’applications IA

L’article précédent de cette série, Découvrir des applications IA et des données, axé sur l’utilisation de Defender pour Cloud Apps pour découvrir des applications IA dans votre environnement. Cet article encourage les organisations à utiliser Defender for Cloud Apps pour rester au-dessus de l’utilisation de nouvelles applications IA en évaluant les risques qu’elles présentent pour votre environnement, la sanction ou le blocage de ces applications et l’application de contrôles de session aux applications.

Tout d’abord, créez une stratégie pour déclencher automatiquement une alerte lorsqu’une nouvelle application IA générative est utilisée dans votre organisation.

Capture d’écran montrant la page Créer une stratégie de découverte d’applications dans Microsoft Defender.

Ensuite, évaluez le score de risque pour les applications nouvellement découvertes. Vous pouvez également personnaliser le score de risque. Par exemple, les organisations hautement réglementées peuvent vouloir modifier le poids des attributs spécifiques du score de risque. Vous pouvez également remplacer un score de risque.

Capture d’écran montrant le catalogue d’applications cloud.

Déterminez s’il faut approuver ou bloquer chaque application. Les organisations peuvent choisir de bloquer l’utilisation des applications pour différentes raisons. Certaines personnes s'inquiètent que des données sensibles soient partagées avec des applications à leur insu et exposées ultérieurement à un public en dehors de l'organisation. Cela peut entraîner le blocage de l’utilisation de toutes les applications IA non managées par l’organisation. Bien que d’autres organisations doivent s’assurer que toutes les applications en cours d’utilisation sont conformes conformément à différentes normes, telles que SOC2 ou HIPAA.

Enfin, pour les applications que vous sanctionnez, décidez si vous souhaitez appliquer des stratégies de session pour un meilleur contrôle et une meilleure visibilité. Les stratégies de session vous permettent d’appliquer des paramètres à la façon dont les applications cloud sont utilisées par vos organization. Par exemple, vous pouvez configurer une stratégie de session qui autorise uniquement les appareils gérés à accéder à une application IA. Un exemple plus simple peut être la configuration d’une stratégie pour surveiller le trafic provenant d’appareils non gérés afin que vous puissiez analyser le risque de ce trafic avant d’appliquer des stratégies plus strictes.

Diagramme qui montre comment les applications cloud sont accessibles via des stratégies de contrôle de session avec Defender for Cloud Apps.

Dans cette illustration :

  • L’accès aux applications cloud approuvées des utilisateurs et des appareils de votre organization est acheminé via Defender for Cloud Apps où des stratégies de session peuvent être appliquées à des applications spécifiques.
  • Les applications cloud que vous n’avez pas approuvées ou explicitement non approuvées ne sont pas affectées.

Defender pour Cloud Apps fournit également des détections dédiées pour Microsoft 365 Copilot. Les équipes de sécurité peuvent détecter les interactions suspectes d’un utilisateur avec Copilot et répondre et atténuer la menace. Par exemple, lorsqu’un utilisateur accède à des données sensibles via Copilot à partir d’une adresse IP risquée, Defender pour Cloud Apps déclenche une alerte pour signaler cette activité suspecte avec des détails importants, notamment la technique d’attaque MITRE, l’adresse IP et d’autres champs que les équipes de sécurité peuvent utiliser pour examiner cette alerte plus loin.

Utilisez les ressources suivantes comme étapes suivantes.

Tâche Ressources recommandées
Passer en revue les étapes 5-8 dans ce flux de déploiement Defender pour Cloud Apps Découvrir et gérer des applications cloud
Consultez ce tutoriel vidéo sur la gestion des applications Découvrez quelles applications d’IA génératives sont utilisées dans votre environnement à l’aide de Defender pour cloud Apps - YouTube
Créer une stratégie de découverte d’application Créer des stratégies de découverte cloud
Évaluer le score de risque pour les applications nouvellement découvertes Catalogue d’applications cloud et scores de risque
Sanction ou blocage de nouvelles applications Gérer les applications découvertes
Appliquer des stratégies de session à des applications IA pour un meilleur contrôle et une meilleure visibilité Créer des stratégies de session
Découvrez comment utiliser la protection contre les menaces pour Microsoft 365 Copilot Nouvelles détections de menaces pour Microsoft Copilot pour Microsoft 365

Étape 2 : Appliquer des protections IA dans Defender pour cloud

L’article précédent de cette série, "Découvrir des applications et des données d'IA," se concentrait sur la découverte des charges de travail et des modèles d'intelligence artificielle générative qui s'exécutent dans votre environnement. Cet article se concentre sur la protection des applications GenAI tout au long du cycle de vie de l’application, à mesure que vous générez et utilisez vos applications IA personnalisées.

Les organisations choisissent de développer de nouvelles applications GenAI et d’incorporer l’IA dans des applications existantes afin d’accroître l’efficacité et la productivité de l’entreprise. Les attaquants cherchent de plus en plus à exploiter les applications pour modifier l'objectif conçu du modèle d'IA avec de nouvelles attaques comme les injections de requêtes, les attaques de portefeuilles, le vol de modèles et l'empoisonnement des données, tout en augmentant la sensibilité aux risques connus tels que les violations de données et les dénis de service. Les équipes de sécurité doivent être préparées et s’assurer qu’elles disposent des contrôles de sécurité appropriés pour leurs applications et détections IA qui répondent au nouveau paysage des menaces.

Microsoft Defender pour Cloud aide les organisations à sécuriser leurs environnements hybrides et multiclouds à partir du code vers le cloud. Defender pour le cloud inclut des fonctionnalités de sécurité et de protection contre les menaces pour permettre aux organisations de protéger leurs applications GenAI intégrées au sein de l’entreprise tout au long du cycle de vie de l’application :

  • Découvrez continuellement les composants d'application GenAI et les artefacts d'IA du code au cloud.
  • Explorez et corrigez les risques pour les applications GenAI avec des recommandations intégrées pour renforcer la posture de sécurité.
  • Identifiez et corrigez les combinaisons toxiques dans les applications GenAI à l’aide de l’analyse du chemin d’attaque.
  • Détecter sur les applications GenAI alimentées par les boucliers d'invite Azure AI Content Safety, les signaux de renseignement sur les menaces de Microsoft et la surveillance de l'activité contextuelle.
  • Recherchez et examinez les attaques dans les applications GenAI avec intégration intégrée à Microsoft Defender.

Commencez par les fonctionnalités de gestion de la posture de sécurité de l'IA dans Defender Cloud Security Posture Management (CSPM). Defender CSPM découvre automatiquement et en permanence les charges de travail d’IA déployées avec une visibilité sans agent et granulaire sur la présence et les configurations des modèles IA, des KITS SDK et des technologies utilisées dans les services IA tels qu’Azure OpenAI Service, Azure Machine Learning et Amazon Bedrock.

CSPM expose en permanence les problèmes de sécurité contextualisés et suggère des recommandations de sécurité basées sur les risques adaptées pour hiérarchiser les lacunes critiques dans vos charges de travail IA. Les recommandations de sécurité pertinentes apparaissent également dans la ressource Azure OpenAI elle-même dans le portail Azure, en fournissant aux développeurs ou aux propriétaires de charge de travail un accès direct aux recommandations et en aidant à corriger plus rapidement.

La capacité d'analyse du chemin d'attaque peut identifier des risques sophistiqués pour les charges de travail d'IA, y compris des scénarios de sécurité des données où les données de mise à la terre ou de réglage fin sont exposées à Internet par le biais d'un mouvement latéral et sont susceptibles d'empoisonnement des données.

Ensuite, restez sécurisé en cours d'exécution avec la protection contre les menaces pour les charges de travail d'IA. Defender pour cloud inclut la protection contre les menaces pour les charges de travail IA. La protection contre les menaces pour l'IA utilise l'intégration native Azure OpenAI Service, les boucliers d'invite Azure AI Content Safety et les renseignements sur les menaces de Microsoft pour fournir des alertes de sécurité contextuelles et exploitables. La protection contre les menaces pour les charges de travail IA permet aux équipes de sécurité de surveiller leurs applications Azure OpenAI à l'exécution pour détecter les activités malveillantes associées aux attaques d'injection d'invites directes et indirectes, aux fuites de données sensibles et à l'empoisonnement des données, ainsi qu'aux abus de portefeuille ou aux attaques par déni de service.

Utilisez les ressources suivantes pour les étapes suivantes.

Tâche Ressources recommandées
Passez en revue les principaux scénarios décrits dans ce blog Sécuriser les applications IA dégénératives avec Microsoft Defender pour cloud
Utiliser CSPM pour obtenir une visibilité des risques liés à l’IA dans votre environnement Protéger vos ressources avec Defender CSPM
Passez en revue le tableau de bord de sécurité des données et de l’IA (préversion)
Activer la protection contre les menaces pour les charges de travail IA (aperçu) Activer la protection contre les menaces pour les charges de travail IA (aperçu)
Alertes pour les charges de travail liées à l'intelligence artificielle (préversion)

Étape suivante pour la sécurisation de l’IA

Après avoir protégé des applications et des données IA dans votre organisation, l’étape suivante consiste à régir les applications IA pour répondre aux exigences de conformité réglementaire :

  • Évaluez et renforcez votre posture de conformité par rapport aux réglementations.
  • Implémentez des contrôles pour régir l’utilisation des applications et données IA.

Consultez l’article suivant de cette série : Comment régir l’IA pour la conformité ?