Protections de la conformité et de la sécurité des données Microsoft Purview pour les applications d’intelligence artificielle générées
Guide de gestion des licences Microsoft 365 pour la sécurité & la conformité
Utilisez Microsoft Purview pour atténuer et gérer les risques associés à l’utilisation de l’IA, et implémenter les contrôles de protection et de gouvernance correspondants.
Microsoft Purview Hub IA est actuellement en préversion et fournit des outils graphiques et des rapports faciles à utiliser pour obtenir rapidement des insights sur l’utilisation de l’IA dans votre organization. Les stratégies en un clic vous aident à protéger vos données et à vous conformer aux exigences réglementaires.
Utilisez le hub IA conjointement avec d’autres fonctionnalités de Microsoft Purview pour renforcer la sécurité et la conformité de vos données pour Microsoft 365 Copilot et Microsoft Copilot :
- Étiquettes de confidentialité et contenu chiffrés par Protection des données Microsoft Purview
- Classification des données
- Clé client
- Conformité des communications
- Audit
- Recherche de contenu
- eDiscovery
- Rétention et suppression
- Référentiel sécurisé client
Remarque
Pour case activée si les plans de licence de votre organization prennent en charge ces fonctionnalités, consultez le lien d’aide aux licences en haut de la page. Pour obtenir des informations de licence pour Microsoft 365 Copilot lui-même, consultez la description du service pour Microsoft 365 Copilot.
Utilisez les sections suivantes pour en savoir plus sur le hub IA et les fonctionnalités de Microsoft Purview qui fournissent des contrôles de conformité et de sécurité des données supplémentaires afin d’accélérer l’adoption par votre organization de Microsoft 365 Copilot et d’autres applications d’IA générative. Si vous débutez avec Microsoft Purview, vous trouverez peut-être également une vue d’ensemble du produit utile : En savoir plus sur Microsoft Purview.
Pour obtenir des informations plus générales sur les exigences de sécurité et de conformité pour Microsoft 365 Copilot, consultez Données, confidentialité et sécurité pour Microsoft 365 Copilot. Pour Microsoft Copilot, consultez Confidentialité et protections de Copilot.
Microsoft Purview Hub IA fournit des insights, des stratégies et des contrôles pour les applications IA
Remarque
Microsoft Purview Hub IA est actuellement en préversion et susceptible d’être modifié.
Le hub IA du portail Microsoft Purview ou du portail de conformité Microsoft Purview fournit un emplacement de gestion central pour vous aider à sécuriser rapidement les données des applications IA et à surveiller de manière proactive l’utilisation de l’IA. Ces applications incluent des applications Microsoft 365 Copilot et d’IA provenant de modules de langage volumineux (LLM) tiers.
Regardez la vidéo suivante pour voir le hub IA en action. L’enregistrement a été effectué avant Microsoft Copilot pour Microsoft 365 a été renommé Microsoft 365 Copilot, et certaines des pages de navigation du hub IA sont maintenant modifiées. Mais la fonctionnalité reste la même.
Le hub IA offre un ensemble de fonctionnalités qui vous permettent d’adopter l’IA en toute sécurité sans avoir à choisir entre productivité et protection :
Insights et analyses sur l’activité IA dans votre organization
Stratégies prêtes à l’emploi pour protéger les données et empêcher la perte de données dans les invites IA
Contrôles de conformité pour appliquer des stratégies optimales de gestion et de stockage des données
Pour obtenir la liste des sites IA tiers pris en charge, tels que ceux utilisés pour Gemini et ChatGPT, consultez Sites IA pris en charge par Microsoft Purview pour les protections de conformité et de sécurité des données.
Comment utiliser le hub IA
Pour vous aider à obtenir plus rapidement des insights sur l’utilisation de l’IA et protéger vos données, le hub IA fournit des stratégies préconfigurées que vous pouvez activer en un seul clic. Prévoyez au moins 24 heures pour que ces nouvelles stratégies collectent des données afin d’afficher les résultats dans le hub IA ou reflètent les modifications que vous apportez aux paramètres par défaut.
Pour commencer à utiliser le hub IA, vous pouvez utiliser le portail Microsoft Purview ou le portail de conformité Microsoft Purview. Vous avez besoin d’un compte disposant des autorisations appropriées pour la gestion de la conformité, par exemple un compte membre du rôle de groupe Administrateur de conformité Microsoft Entra.
Selon le portail que vous utilisez, accédez à l’un des emplacements suivants :
Se connecter au portail> Microsoft PurviewCarte du hub IA (préversion).
Si le carte du hub IA (préversion) n’est pas affiché, sélectionnez Afficher toutes les solutions, puis hub IA (préversion) dans la section Sécurité des données.
Connectez-vous au hub portail de conformité Microsoft Purview>AI (préversion) .
Dans Vue d’ensemble, consultez la section Prise en main pour en savoir plus sur le hub IA et les actions immédiates que vous pouvez prendre. Sélectionnez chacune d’elles pour afficher le volet volant pour en savoir plus, effectuer des actions et vérifier votre status actuelle.
Action Plus d’informations Activer Microsoft Purview Audit L’audit étant activé par défaut pour les nouveaux locataires, vous pouvez déjà remplir ce prérequis. Si c’est le cas et que les utilisateurs se voient déjà attribuer des licences pour Copilot, vous commencez à voir des informations sur les activités Copilot dans la section Analytique plus bas dans la page. Installer l’extension de navigateur Microsoft Purview Un prérequis pour les sites IA tiers. Intégrer des appareils à Microsoft Purview Il s’agit également d’une condition préalable pour les sites IA tiers. Étendre vos insights pour la découverte des données Stratégies en un clic pour collecter des informations sur les utilisateurs qui visitent des sites d’IA générative tiers et leur envoient des informations sensibles. L’option est identique au bouton Étendre vos insights dans la section Analyse des données IA plus bas dans la page. Pour plus d’informations sur les prérequis, consultez Prérequis pour le hub IA.
Pour plus d’informations sur les stratégies préconfigurées que vous pouvez activer, consultez Stratégies en un clic à partir du hub IA.
Ensuite, passez en revue la section Recommandations et décidez s’il faut implémenter des options pertinentes pour votre locataire. Ces options incluent la création de stratégies par défaut pour vous aider à protéger les données sensibles envoyées à des sites d’IA générative tiers et à protéger vos données avec des étiquettes de confidentialité. Voici quelques exemples de recommandations :
- Obtenez une assistance guidée pour les réglementations d’IA, qui utilisent des modèles réglementaires de mappage de contrôle du Gestionnaire de conformité.
- Protégez les données sensibles référencées dans les réponses Copilot, qui identifient le contenu qui a été référencé par Microsoft 365 Copilot et qui n’est pas protégé par une étiquette de confidentialité.
Vous pouvez utiliser le lien Afficher toutes les recommandations ou Recommandations dans le volet de navigation pour voir toutes les recommandations disponibles pour votre locataire et leurs status. Lorsqu’une recommandation est terminée ou ignorée, vous ne la voyez plus dans la page Vue d’ensemble .
Utilisez la section Rapports ou la page Rapports du volet de navigation pour afficher les résultats de vos stratégies. Vous devez attendre au moins un jour que les rapports soient remplis.
Utilisez la page Stratégies du hub IA pour surveiller les status des stratégies créées. Pour les modifier, utilisez la solution de gestion correspondante dans le portail. Par exemple, pour Contrôler le comportement contraire à l’éthique dans l’IA, vous pouvez examiner et corriger les correspondances à partir de la solution de conformité des communications.
Sélectionnez Explorateur d’activités à partir du hub IA pour afficher les détails des données collectées à partir de vos stratégies.
Ces informations plus détaillées incluent l’activité, la charge de travail et l’application, l’utilisateur, la date et l’heure, ainsi que tous les types d’informations sensibles détectés.
Parmi les exemples d’activités, citons l’interaction ia, la classification estampillée, la correspondance de règle DLP et la visite de l’IA. Les invites et réponses Copilot sont incluses dans les événements d’interaction IA lorsque vous disposez des permisisons appropriées. Pour plus d’informations sur les événements, consultez Événements de l’Explorateur d’activités.
Parmi les exemples de charges de travail, citons Microsoft Copilot et Autres applications IA.
Pour Microsoft 365 Copilot et Microsoft Copilot, utilisez ces stratégies et insights conjointement avec des protections et des fonctionnalités de conformité supplémentaires de Microsoft Purview.
Microsoft Purview renforce la protection des informations pour Copilot
Microsoft 365 Copilot utilise des contrôles existants pour garantir que les données stockées dans votre locataire ne sont jamais retournées à l’utilisateur ou utilisées par un modèle LLM (Large Language Model) si l’utilisateur n’a pas accès à ces données. Lorsque les données ont des étiquettes de confidentialité de votre organization appliquées au contenu, il existe une couche de protection supplémentaire :
Lorsqu’un fichier est ouvert dans Word, Excel, PowerPoint ou un événement de courrier électronique ou de calendrier est ouvert dans Outlook, la sensibilité des données est affichée aux utilisateurs de l’application avec le nom d’étiquette et les marquages de contenu (tels que le texte d’en-tête ou de pied de page) qui ont été configurés pour l’étiquette. Loop composants et pages prennent également en charge les mêmes étiquettes de confidentialité.
Lorsque l’étiquette de confidentialité applique un chiffrement, les utilisateurs doivent avoir le droit d’utilisation EXTRACT, ainsi que VIEW, pour que Copilot retourne les données.
Cette protection s’étend aux données stockées en dehors de votre client Microsoft 365 lorsqu’elles sont ouvertes dans une application Office (données en cours d’utilisation). Par exemple, le stockage local, les partages réseau et le stockage cloud.
Conseil
Si vous ne l’avez pas déjà fait, nous vous recommandons d’activer les étiquettes de confidentialité pour SharePoint et OneDrive et de vous familiariser avec les types de fichiers et les configurations d’étiquettes que ces services peuvent traiter. Lorsque les étiquettes de confidentialité ne sont pas activées pour ces services, les fichiers chiffrés auxquels Microsoft 365 Copilot pouvez accéder sont limités aux données utilisées à partir des applications Office sur Windows.
Pour obtenir des instructions, voir Activer les étiquettes de confidentialité pour les fichiers Office dans SharePoint et OneDrive.
En outre, lorsque vous utilisez Business Chat (anciennement conversation et Microsoft 365 Chat avec graphe) qui peuvent accéder aux données d’un large éventail de contenu, la sensibilité des données étiquetées retournées par Microsoft 365 Copilot est rendue visible par les utilisateurs avec l’étiquette de confidentialité affichée pour les citations et les éléments répertoriés dans la réponse. À l’aide du numéro de priorité des étiquettes de confidentialité défini dans le portail Microsoft Purview ou le portail de conformité Microsoft Purview, la dernière réponse dans Copilot affiche l’étiquette de confidentialité la plus élevée à partir des données utilisées pour cette conversation Copilot.
Bien que les administrateurs de conformité définissent la priorité d’une étiquette de confidentialité, un numéro de priorité plus élevé indique généralement une sensibilité plus élevée du contenu, avec des autorisations plus restrictives. Par conséquent, les réponses Copilot sont étiquetées avec l’étiquette de confidentialité la plus restrictive.
Remarque
Si les éléments sont chiffrés par Protection des données Microsoft Purview mais n’ont pas d’étiquette de confidentialité, Microsoft 365 Copilot ne retournera pas non plus ces éléments aux utilisateurs si le chiffrement n’inclut pas les droits d’utilisation EXTRACT ou VIEW de l’utilisateur.
Si vous n’utilisez pas encore d’étiquettes de confidentialité, consultez Prise en main des étiquettes de confidentialité.
Bien que les stratégies DLP ne prennent pas en charge la classification des données pour les interactions Microsoft 365 Copilot, les types d’informations sensibles et les classifieurs pouvant être entraînés sont pris en charge avec des stratégies de conformité de communication pour identifier les données sensibles dans les invites utilisateur à Copilot et les réponses.
Protection Copilot avec héritage des étiquettes de confidentialité
Lorsque vous utilisez Microsoft 365 Copilot pour créer du contenu basé sur un élément auquel une étiquette de confidentialité est appliquée, l’étiquette de confidentialité du fichier source est automatiquement héritée, avec les paramètres de protection de l’étiquette.
Par exemple, un utilisateur sélectionne Brouillon avec Copilot dans Word, puis Référencer un fichier. Ou un utilisateur sélectionne Créer une présentation à partir d’un fichier dans PowerPoint, ou Modifier dans les pages à partir de Business Chat. L’étiquette de confidentialité Confidential\Anyone (sans restriction) est appliquée au contenu source et cette étiquette est configurée pour appliquer un pied de page qui affiche « Confidentiel ». Le nouveau contenu est automatiquement étiqueté Confidentiel\Tout le monde (sans restriction) avec le même pied de page.
Pour voir un exemple de ceci en action, watch la démonstration suivante de la session Ignite 2023, « Préparer votre entreprise pour Microsoft 365 Copilot ». La démonstration montre comment l’étiquette de confidentialité par défaut de Général est remplacée par une étiquette Confidentiel lorsqu’un utilisateur rédige avec Copilot et fait référence à un fichier étiqueté. La barre d’informations sous le ruban informe l’utilisateur que le contenu créé par Copilot a entraîné l’application automatique de la nouvelle étiquette :
Si plusieurs fichiers sont utilisés pour créer du contenu, l’étiquette de confidentialité avec la priorité la plus élevée est utilisée pour l’héritage des étiquettes.
Comme pour tous les scénarios d’étiquetage automatique, l’utilisateur peut toujours remplacer et remplacer une étiquette héritée (ou supprimer, si vous n’utilisez pas l’étiquetage obligatoire).
Protection Microsoft Purview sans étiquettes de confidentialité
Même si une étiquette de confidentialité n’est pas appliquée au contenu, les services et les produits peuvent utiliser les fonctionnalités de chiffrement du service Azure Rights Management. Par conséquent, Microsoft 365 Copilot pouvez toujours case activée pour les droits d’utilisation VIEW et EXTRACT avant de retourner des données et des liens à un utilisateur, mais il n’y a pas d’héritage automatique de protection pour les nouveaux éléments.
Conseil
Vous bénéficiez de la meilleure expérience utilisateur lorsque vous utilisez toujours des étiquettes de confidentialité pour protéger vos données et que le chiffrement est appliqué par une étiquette.
Exemples de produits et de services qui peuvent utiliser les fonctionnalités de chiffrement du service Azure Rights Management sans étiquettes de confidentialité :
- Chiffrement des messages Microsoft Purview
- Gestion des droits relatifs à l’information (IRM) Microsoft
- Connecteur Microsoft Rights Management
- Kit de développement logiciel (SDK) Microsoft Rights Management
Pour les autres méthodes de chiffrement qui n’utilisent pas le service Azure Rights Management :
Les e-mails protégés par S/MIME ne seront pas retournés par Copilot, et Copilot n’est pas disponible dans Outlook lorsqu’un e-mail protégé par S/MIME est ouvert.
Les documents protégés par mot de passe ne sont pas accessibles par Microsoft 365 Copilot, sauf s’ils sont déjà ouverts par l’utilisateur dans la même application (données en cours d’utilisation). Les mots de passe ne sont pas hérités par un élément de destination.
Comme avec d’autres services Microsoft 365, tels que la découverte électronique et la recherche, les éléments chiffrés avec la clé client Microsoft Purview ou votre propre clé racine (BYOK) sont pris en charge et peuvent être retournés par Microsoft 365 Copilot.
Microsoft Purview prend en charge la gestion de la conformité pour Copilot
Utilisez les fonctionnalités de conformité de Microsoft Purview avec la protection des données d’entreprise pour prendre en charge vos exigences en matière de risques et de conformité pour Microsoft 365 Copilot et Microsoft Copilot.
Les interactions avec Copilot peuvent être surveillées pour chaque utilisateur de votre locataire. Par conséquent, vous pouvez utiliser la classification de Purview (types d’informations sensibles et classifieurs pouvant être formés), la recherche de contenu, la conformité des communications, l’audit, eDiscovery et les fonctionnalités de rétention et de suppression automatiques à l’aide de stratégies de rétention.
Pour la conformité des communications, vous pouvez analyser les invites utilisateur et les réponses Copilot pour détecter les interactions inappropriées ou risquées ou le partage d’informations confidentielles. Pour plus d’informations, consultez Configurer une stratégie de conformité des communications pour détecter les interactions Copilot.
Pour l’audit, les détails sont capturés dans le journal d’audit unifié lorsque les utilisateurs interagissent avec Copilot. Les événements incluent comment et quand les utilisateurs interagissent avec Copilot, dans lequel le service Microsoft 365 a eu lieu, et les références aux fichiers stockés dans Microsoft 365 qui ont été consultés pendant l’interaction. Si une étiquette de confidentialité est appliquée à ces fichiers, elle est également capturée. Dans la solution Audit à partir du portail Microsoft Purview ou du portail de conformité Microsoft Purview, sélectionnez Activités Copilot et Interaction avec Copilot. Vous pouvez également sélectionner Copilot comme charge de travail. Par exemple, à partir du portail de conformité :
Pour la recherche de contenu, étant donné que les invites de l’utilisateur à Copilot et les réponses de Copilot sont stockées dans la boîte aux lettres d’un utilisateur, elles peuvent être recherchées et récupérées lorsque la boîte aux lettres de l’utilisateur est sélectionnée comme source pour une requête de recherche. Sélectionnez et récupérez ces données à partir de la boîte aux lettres source en sélectionnant dans le générateur de requêtes Ajouter untype> de condition >Égal à l’une des>options Ajouter/Supprimer des interactions>Copilot.
De même pour eDiscovery, vous utilisez le même processus de requête pour sélectionner des boîtes aux lettres et récupérer les invites utilisateur à Copilot et les réponses de Copilot. Une fois la collection créée et source dans la phase de révision dans eDiscovery (Premium), ces données sont disponibles pour effectuer toutes les actions de révision existantes. Ces collections et ensembles de révision peuvent ensuite être mis en attente ou exportés. Si vous devez supprimer ces données, consultez Rechercher et supprimer des données pour Copilot.
Pour les stratégies de rétention qui prennent en charge la rétention et la suppression automatiques, les invites utilisateur à Copilot et les réponses de Copilot sont identifiées par l’emplacement des conversations Teams et des interactions Copilot. Précédemment nommé uniquement conversations Teams, les utilisateurs n’ont pas besoin d’utiliser la conversation Teams pour que cette stratégie s’applique à eux. Toutes les stratégies de rétention existantes précédemment configurées pour les conversations Teams incluent désormais automatiquement les invites et les réponses de l’utilisateur aux Microsoft 365 Copilot et Microsoft Copilot :
Pour plus d’informations sur cette rétention, consultez En savoir plus sur la rétention pour Copilot.
Comme pour toutes les stratégies et conservations de rétention, si plusieurs stratégies pour le même emplacement s’appliquent à un utilisateur, les principes de rétention résolvent les conflits. Par exemple, les données sont conservées pendant la durée la plus longue de toutes les stratégies de rétention appliquées ou des conservations eDiscovery.
Pour que les étiquettes de rétention conservent automatiquement les fichiers référencés dans Copilot, sélectionnez l’option pièces jointes cloud avec une stratégie d’étiquette de rétention d’application automatique : Appliquer une étiquette aux pièces jointes cloud et aux liens partagés dans Exchange, Teams, Viva Engage et Copilot. Comme pour toutes les pièces jointes cloud conservées, la version du fichier au moment où elle est référencée est conservée.
Pour plus d’informations sur le fonctionnement de cette rétention, consultez Fonctionnement de la rétention avec les pièces jointes cloud.
Pour obtenir des instructions de configuration :
Pour configurer des stratégies de conformité des communications pour les interactions Copilot, consultez Créer et gérer des stratégies de conformité des communications.
Pour rechercher les interactions Copilot dans le journal d’audit, consultez Rechercher dans le journal d’audit.
Pour utiliser la recherche de contenu afin de rechercher des interactions Copilot, consultez Rechercher du contenu.
Pour utiliser eDiscovery pour les interactions Copilot, consultez Microsoft Purview eDiscovery solutions.
Pour créer ou modifier une stratégie de rétention pour les interactions Copilot, consultez Créer et configurer des stratégies de rétention.
Pour créer une stratégie d’étiquette de rétention d’application automatique pour les fichiers référencés dans Copilot, consultez Appliquer automatiquement une étiquette de rétention pour conserver ou supprimer du contenu.
Autre documentation pour le hub IA et Copilot
Annonce du billet de blog : Sécuriser vos données pour tirer parti en toute confiance de l’IA générative avec Microsoft Purview
Pour plus d’informations, consultez Considérations relatives aux Hub IA Microsoft Purview et aux protections de conformité et de sécurité des données pour Copilot.
Microsoft 365 Copilot :