Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article présente le processus organisationnel pour sécuriser les charges de travail d’IA. Il se concentre sur la confidentialité, l’intégrité et la disponibilité (CIA) de l’IA. Des pratiques de sécurité efficaces réduisent le risque de compromission en protégeant la confidentialité, l’intégrité et la disponibilité des modèles et données d’IA. Un environnement IA sécurisé s’aligne également sur les objectifs de sécurité de l’entreprise et renforce la confiance dans les processus pilotés par l’IA.
Découvrir les risques de sécurité de l’IA
Les charges de travail IA introduisent des vulnérabilités uniques que les attaquants peuvent exploiter pour accéder aux données, perturber les systèmes ou manipuler des sorties. Identifiez et évaluez régulièrement ces risques pour protéger les opérations commerciales, maintenir la confiance et défendre les systèmes d’IA contre toute utilisation abusive.
Identifiez les risques de sécurité de l’IA. Les systèmes IA sont confrontés à des menaces en constante évolution qui nécessitent une évaluation spécialisée. Utilisez des frameworks tels que MITRE ATLAS et OWASP Generative AI pour identifier les risques dans toutes les charges de travail liées à l'IA.
Identifiez les risques liés aux données IA. Les données sensibles dans les flux de travail IA augmentent le risque de menaces internes ou de fuites de données. Utilisez des outils tels que Microsoft Purview Insider Risk Management pour évaluer les risques de données à l’échelle de l’entreprise et les hiérarchiser en fonction de la sensibilité des données.
Identifiez les risques liés au modèle IA. Les attaquants peuvent extraire ou manipuler des sorties de modèle pour accéder à des informations privées ou exploiter des faiblesses. Testez les modèles pour les vulnérabilités telles que les fuites de données, l’injection d’invite et l’inversion de modèle à l’aide de techniques de prévention de la perte de données et de simulations d'attaques.
Effectuez des tests d’équipe rouge. Les tests réels révèlent des risques inconnus que les analyses statiques ne détectent pas. Mettre en place une équipe rouge pour simuler des attaques en utilisant à la fois des modèles d'IA générative et d'IA non générative. Suivez ces recommandations :
Évaluez les fonctionnalités et le contexte du système. Ciblez les efforts de test en comprenant l’objectif du système et les risques qu’il introduit. Partir des impacts potentiels pour concevoir des stratégies d'attaque pertinentes.
Utilisez d’abord des techniques d’attaque simples. De nombreuses violations réelles s’appuient sur des techniques de faible ressource. Commencez par des invites essentielles et des scénarios de mauvaise utilisation avant d'escalader vers des méthodes complexes.
Distinguer l'équipe rouge de l’étalonnage. Les équipes rouges d'IA révèlent des risques inconnus. Le benchmarking évalue les vulnérabilités connues. Hiérarchiser la découverte de problèmes inconnus plutôt que de mesurer les problèmes connus.
Automatisez l’extension de la couverture des risques. Utilisez l’automatisation pour déployer la couverture des attaques, mais passez en revue les résultats pour identifier les risques subtils. Utilisez des outils comme PyRIT pour tester des systèmes IA à grande échelle.
Hiérarchiser le jugement humain dans l’association rouge d’IA. L’automatisation permet de tester, mais d’utiliser des insights humains pour détecter les risques liés aux préjugés, à l’éthique et au comportement inattendu.
Développez des méthodes fiables pour mesurer les défaillances d’IA responsables. Des défaillances d’IA responsables se produisent lorsque les systèmes IA violent les principes de l’IA responsable. Contrairement aux vulnérabilités de sécurité, ces défaillances sont plus difficiles à définir et à mesurer en raison de leurs implications subjectives, sociales et éthiques. Utilisez des scénarios structurés pour évaluer le comportement de l’IA qui enfreint les principes éthiques même lorsque les contrôles de sécurité passent.
Sécurisez les menaces traditionnelles et spécifiques à l’IA. Protégez les systèmes contre les menaces conventionnelles et les attaques ciblées par l’IA, telles que les injections de commandes ou l’exfiltration de données.
Pour plus d’informations, consultez Leçons de l’association rouge de 100 produits d’IA générative.
Effectuer des évaluations périodiques des risques. De nouvelles menaces peuvent apparaître en tant que modèles IA, utilisation et acteurs des menaces évoluent. Exécutez des évaluations périodiques pour identifier les vulnérabilités dans les modèles, les pipelines de données et les environnements de déploiement, et utilisez les résultats pour guider l’atténuation des risques.
Protéger les ressources et les données d’IA
Les systèmes IA augmentent l’exposition des risques organisationnels par le biais de nouvelles données, infrastructures et surfaces d’attaque. Appliquez des contrôles de sécurité cohérents pour gérer ce risque et protéger les ressources sensibles.
Sécuriser les ressources IA
Les ressources IA prennent en charge les fonctions métier critiques et peuvent devenir des cibles pour une mauvaise utilisation ou une compromission. Inventaire, configuration et gouvernance de tous les modèles, services et infrastructures avec des contrôles de sécurité standardisés.
Établir un inventaire centralisé des actifs IA. Les ressources non tracées créent des vulnérabilités que les attaquants peuvent exploiter. Utilisez des outils tels qu’Azure Resource Graph Explorer et Microsoft Defender pour Cloud pour créer et gérer un inventaire complet des modèles, des données et de l’infrastructure. Microsoft Defender for Cloud peut découvrir les charges de travail d’IA générative et dans les artéfacts d’IA générative pré-déploiement.
Sécuriser les plateformes IA d’Azure. Les configurations incohérentes créent des vulnérabilités entre les systèmes IA. Appliquez les bases de référence de sécurité Azure et suivez les guides de service Azure pour obtenir des conseils de sécurité.
Appliquez des contrôles de sécurité spécifiques à la charge de travail. Les charges de travail IA sur PaaS et IaaS présentent différents risques et contrôles. Utilisez des conseils personnalisés pour l’IA sur les services de plateforme Azure (PaaS) et l’IA sur l’infrastructure Azure (IaaS) :
Sécuriser les données IA
Les données IA incluent des informations sensibles que les attaquants peuvent exfiltrer, manipuler ou utiliser de mauvaise utilisation. Protégez les données IA en appliquant des contrôles d’accès, en surveillant l’utilisation et en isolant des ressources à haut risque.
Définir et maintenir des limites de données. L’exposition incorrecte des données crée des risques de conformité et de confidentialité. Mettre en correspondance chaque charge de travail IA avec des jeux de données appropriés pour son audience et restreindre l’accès partagé. Les applications IA accessibles à tous les employés ne doivent traiter que des données adaptées à tous les employés. Les applications IA orientées vers Internet doivent utiliser des données adaptées à une utilisation publique. Utilisez des ensembles de données ou environnements distincts pour différentes applications IA afin de prévenir un accès involontaire aux données. Envisagez d’utiliser la suite d’outils de sécurité des données de Microsoft Purview pour sécuriser vos données.
Contrôler l’accès aux données. Les contrôles d’accès faibles permettent un accès non autorisé aux données. Exiger la vérification au niveau de l’utilisateur et limiter les autorisations en fonction des privilèges minimum.
Maintenir un catalogue de données. Les sources de données non tracées augmentent les risques et réduisent l’efficacité de la gouvernance. Cataloguer les données liées à l’IA, notamment les emplacements de stockage et les détails d’accès. Analysez et classifiez le niveau de confidentialité et d’accès des données. Envisagez d’utiliser Microsoft Purview Data Catalog.
Suivez les modifications apportées à la sensibilité des données. La classification des données peut changer d’utilisation ou de contenu. Surveillez les niveaux de confidentialité et supprimez les données à haut risque des charges de travail IA à usage général. Utilisez votre catalogue de données pour surveiller les informations utilisées dans les charges de travail IA.
Protégez les artefacts IA. Les attaquants peuvent voler, empoisonner ou inverser des modèles IA et des jeux de données. Stockez des artefacts dans des environnements privés et chiffrés avec des contrôles d’accès stricts. Stockez les modèles et ensembles de données IA derrière des points de terminaison privés et dans des environnements sécurisés tels qu’Azure Blob Storage et des espaces de travail dédiés. Appliquez des politiques d’accès strictes et le chiffrement pour protéger les artefacts IA contre l’accès non autorisé ou le vol, afin d’éviter l’empoisonnement de données.
Protéger les données sensibles. Les données sensibles traitées dans des environnements non sécurisés peuvent fuiter ou être exposées. Utilisez des sous-ensembles nettoyés et isolez les environnements de traitement avec des restrictions de chiffrement, de surveillance et de réseau.
Former des employés sur des risques spécifiques à l’IA. Une mauvaise utilisation et une mauvaise configuration proviennent souvent d’une erreur humaine. Fournissez une formation basée sur les rôles sur la sécurité, la gestion des données et la sensibilisation aux menaces pour toutes les équipes de projet IA.
Détecter les menaces de sécurité IA
Les systèmes d’IA sont confrontés à des menaces en constante évolution qui peuvent apparaître ou remonter sans avertissement. Les organisations doivent détecter ces menaces rapidement et répondre avec un délai minimal.
Détecter les risques liés à l’IA. Les charges de travail IA introduisent des menaces dynamiques et masquées que les évaluations statiques ne parviennent pas à intercepter. Automatisez la détection et la réponse des menaces pour les risques d’IA générative. Utilisez la gestion de la posture de sécurité de l’IA dans Microsoft Defender pour Cloud pour automatiser la détection et la correction des risques d’IA génératives.
Détecter les incidents de sécurité IA. Les incidents non détectés peuvent entraîner une perte de données, une compromission de modèle ou une interruption de service. Créez et testez un plan de réponse aux incidents axé sur l’IA et surveillez en permanence les indicateurs de compromission pour déclencher une atténuation rapide.
Appliquez une surveillance spécifique à la charge de travail. Les charges de travail IA sur PaaS et IaaS ont des besoins de supervision différents. Utilisez des conseils pour l’IA sur Azure PaaS et l’IA sur Azure IaaS :
Étapes suivantes
Gouverner, gérer et sécuriser l’IA sont des processus continus que vous devez itérer régulièrement. Révisez chaque stratégie IA, plan IA et IA Prêt selon les besoins. Utilisez les listes de contrôle d’adoption IA pour déterminer votre prochaine étape.