Données, confidentialité et sécurité pour Microsoft Copilot pour Microsoft 365

Microsoft Copilot pour Microsoft 365 est un moteur de traitement et d’orchestration sophistiqué qui fournit des fonctionnalités de productivité optimisées par l’IA en coordonnant les composants suivants :

  • Modèles de langage volumineux (LLMs)
  • Contenu dans Microsoft Graph, tel que des e-mails, des conversations et des documents auxquels vous êtes autorisé à accéder.
  • Les applications Microsoft 365 que vous utilisez tous les jours, telles que Word et PowerPoint.

Pour une présentation de la façon dont ces trois composants fonctionnent ensemble, consultez Vue d'ensemble de Microsoft Copilot pour Microsoft 365 Copilot. Pour obtenir des liens vers d’autres contenus liés à Microsoft Copilot pour Microsoft 365, consultez la documentation de Microsoft Copilot pour Microsoft 365.

Importante

  • Microsoft Copilot pour Microsoft 365 est conforme à nos engagements existants en matière de confidentialité, de sécurité et de conformité envers les clients commerciaux de Microsoft 365, y compris le règlement général sur la protection des données (RGPD) et la frontière de données de l'Union européenne (UE).
  • Les invites, les réponses et les données accessibles via Microsoft Graph ne sont pas utilisées pour former les LLM de base, y compris ceux utilisés par Microsoft Copilot pour Microsoft 365.

Les informations contenues dans cet article sont destinées à fournir des réponses aux questions suivantes :

Remarque

Microsoft Copilot pour Microsoft 365, continuera à évoluer au fil du temps avec de nouvelles fonctionnalités. Pour rester informé au sujet de Microsoft Copilot pour Microsoft 365 ou poser des questions, consultez la communauté Microsoft 365 Copilot sur Microsoft Tech Community.

Comment Microsoft Copilot pour Microsoft 365 utilise-t-ils vos données organisationnelles propriétaires ?

Microsoft Copilot pour Microsoft 365 fournit de la valeur en connectant les LLM aux données de votre organisation. Microsoft Copilot pour Microsoft 365 accède au contenu et au contexte via Microsoft Graph. Il peut générer des réponses ancrées dans le contenu professionnel du client, telles que des documents utilisateur, des e-mails, un calendrier, des conversations, des réunions, des contacts et d’autres données d’entreprise. Microsoft Copilot pour Microsoft 365 combine ce contenu avec le contexte de travail de l'utilisateur, comme la réunion à laquelle il participe actuellement, les échanges de courriels qu'il a eus sur un sujet ou les conversations qu'il a eues la semaine dernière. Microsoft Copilot pour Microsoft 365 utilise cette combinaison de contenu et de contexte pour fournir des réponses précises, pertinentes et contextuelles.

Importante

Les invites, les réponses et les données accessibles via Microsoft Graph ne sont pas utilisées pour former les LLM de base, y compris ceux utilisés par Microsoft Copilot pour Microsoft 365.

Microsoft Copilot pour Microsoft 365 expose uniquement les données organisationnelles sur lesquelles les utilisateurs individuels possèdent au moins des autorisations d’affichage. Il est important que vous utilisiez les modèles d’autorisation disponibles dans les services Microsoft 365, tels que SharePoint, pour vous assurer que les utilisateurs ou groupes appropriés disposent du bon accès au contenu approprié dans votre organisation. Cela inclut les autorisations que vous accordez aux utilisateurs extérieurs à votre organisation via des solutions de collaboration inter-locataires, telles que des canaux partagés dans Microsoft Teams.

Lorsque vous entrez des invites à l’aide de Microsoft Copilot pour Microsoft 365, les informations contenues dans vos invites, les données qu’elles récupèrent, et les réponses générées restent dans la limite de service de Microsoft 365, conformément à nos engagements actuels en matière de confidentialité, de sécurité et de conformité. Microsoft Copilot pour Microsoft 365 utilise les services Azure OpenAI pour le traitement, et non les services OpenAI disponibles publiquement.

Remarque

Lorsque vous utilisez Microsoft Copilot pour Microsoft 365, les données de votre organisation peuvent quitter le périmètre du service Microsoft 365 dans les circonstances suivantes :

  • Lorsque vous utilisez des plug-ins pour aider Microsoft Copilot pour Microsoft 365 à fournir des informations plus pertinentes. Vérifier la déclaration de confidentialité et les conditions d’utilisation du plug-in pour déterminer comment il gérera les données de votre organisation. Pour plus d’informations, consultez Extensibilité de Microsoft Copilot pour Microsoft 365.
  • Lorsque vous utilisez le plug-in de contenu web pour améliorer les réponses de conversation, Copilot pour Microsoft 365 génère une requête de recherche qui est envoyée à Bing pour obtenir les informations les plus récentes à partir du web. Pour plus d’informations, consultez Microsoft Copilot pour Microsoft 365 et le plug-in de contenu web.

La surveillance des abus pour Microsoft Copilot pour Microsoft 365 s'effectue en temps réel, sans fournir à Microsoft un accès permanent aux données des clients, que ce soit pour un examen humain ou automatisé. Alors que la modération de la mauvaise utilisation, qui inclut la révision humaine du contenu, est disponible dans Azure OpenAI, les services Microsoft Copilot pour Microsoft 365 les ont refusé. Les données Microsoft 365 ne sont pas collectées ou stockées par Azure OpenAI.

Remarque

Nous pouvons utiliser les commentaires des clients, qui sont facultatifs, pour améliorer Microsoft Copilot pour Microsoft 365, tout comme nous utilisons les commentaires des clients pour améliorer d’autres services Microsoft 365 et les applications Microsoft 365. Nous n’utilisons pas ces commentaires pour entraîner les LLM de base utilisés par Microsoft Copilot pour Microsoft 365. Les clients peuvent gérer les commentaires par le biais des contrôles d’administration. Pour plus d’informations, consultez Gérer les commentaires Microsoft pour votre organisation et fournir des commentaires sur Microsoft Copilot pour Microsoft 365.

Données stockées à propos des interactions utilisateur avec Microsoft Copilot pour Microsoft 365

Lorsqu’un utilisateur interagit avec Microsoft Copilot pour Microsoft 365 Apps (telles que Word, PowerPoint, Excel, OneNote, Loop ou Whiteboard), nous stockons des données sur ces interactions. Les données stockées comprennent l'invite de l'utilisateur et la réponse de Copilot, y compris les références à toute information utilisée pour établir la réponse de Copilot. Nous appelons contenu des interactions l'invite de l'utilisateur et la réponse de Copilot à cette invite, et l'enregistrement de ces interactions est l'historique des interactions de l'utilisateur avec Copilot. Par exemple, ces données stockées fournissent aux utilisateurs l'historique des interactions avec Microsoft Copilot avec des discussions établies sur Graph et des réunions dans Microsoft Teams. Ces données sont traitées et stockées conformément aux engagements contractuels avec l’autre contenu de votre organisation dans Microsoft 365. Les données sont chiffrées lorsqu’elles sont stockées et ne sont pas utilisées pour entraîner les LLM de base, y compris celles utilisées par Microsoft Copilot pour Microsoft 365.

Pour visualiser et gérer ces données stockées, les administrateurs peuvent utiliser la Recherche de contenu ou Microsoft Purview. Les administrateurs peuvent également utiliser Microsoft Purview pour définir des stratégies de rétention des données liées aux interactions de conversation avec Copilot. Si vous souhaitez en savoir plus, consultez les articles suivants :

Pour les conversations Microsoft Teams avec Copilot, les administrateurs peuvent également utiliser les API d’exportation Microsoft Teams pour afficher les données stockées.

Suppression de l’historique des interactions utilisateur avec Microsoft Copilot pour Microsoft 365

Vos utilisateurs peuvent supprimer leur historique d’interaction Copilot, qui inclut leurs invites et les réponses retournées par Copilot, en accédant au portail Mon compte. Pour plus d’informations, consultez Supprimer l’historique de vos interactions avec Microsoft Copilot.

Microsoft Copilot pour Microsoft 365 et la limite de données de l’UE

Les appels de Microsoft Copilot pour Microsoft 365 vers le LLM sont acheminés vers les centres de données dans la région la plus proche, mais peuvent également appeler d'autres régions où la capacité est disponible pendant les périodes de forte utilisation.

Pour les utilisateurs de l’Union européenne (UE), nous avons des garanties supplémentaires pour se conformer à la limite de données de l’UE. Le trafic de l’UE reste à l’intérieur de la limite de données de l’UE, tandis que le trafic mondial peut être envoyé vers l’UE et d’autres pays ou régions pour le traitement LLM.

Microsoft Copilot pour Microsoft 365 et la résidence des données

Copilot pour Microsoft 365 respecte les engagements en matière de résidence des données, comme indiqué dans les Conditions générales de produit Microsoft et l’Addendum de protection des données. Copilot pour Microsoft 365 a été ajouté en tant que charge de travail couverte des engagements de résidence de données dans les conditions du produit Microsoft le 1er mars 2024.

Les offres Microsoft sur la résidence des données avancées (ADR) et Fonctionnalités multigéographiques incluent des engagements de résidence des données pour les clients de Copilot pour Microsoft 365 à compter du 1er mars 2024. Pour les clients de l’UE, Copilot pour Microsoft 365 est un service de limite de données de l’UE. Les requêtes des clients extérieurs à l’UE peuvent être traitées aux États-Unis, dans l’Union européenne ou dans d’autres régions.

Microsoft Copilot pour Microsoft 365 et le plug-in de contenu web

Copilot pour Microsoft 365 a la possibilité d’améliorer les réponses de conversation avec les dernières informations du web. Lorsque le plug-in de contenu web est activé, Copilot peut extraire des informations de l’index de recherche Bing lorsque Copilot détermine que les informations provenant du web vous aideront à fournir une réponse plus efficace et plus ancrée.

Les contrôles d’administration et le bouton bascule au niveau de l’utilisateur sont disponibles pour gérer si le plug-in de contenu web est activé dans votre environnement.

Fonctionnement du plug-in de contenu web

Lorsque le plug-in de contenu web est activé dans la conversation, Copilot pour Microsoft 365 analyse l’invite de l’utilisateur et identifie les termes où la base web peut améliorer la qualité de la réponse. Sur la base de ces termes, Copilot génère une requête de recherche qui est envoyée à l’API Recherche Bing demandant plus d’informations. Cette requête de recherche est différente de l’invite de l’utilisateur. Elle se compose généralement de quelques mots informés par l’invite de l’utilisateur et/ou des données Microsoft 365. Elle n’inclut pas automatiquement l’intégralité des documents Microsoft 365 associés à l’invite.

Le tableau suivant fournit un exemple de l’invite d’un utilisateur, des requêtes de recherche envoyées et de la réponse de Copilot.

Entity Texte
Invite (telle qu’elle a été écrite par l’utilisateur) Nous envisageons une éventuelle acquisition de Fabrikam. Aidez-moi à créer un rapport récapitulatif de 200 mots sur les informations financières disponibles publiquement sur l’entreprise, y compris leur stratégie commerciale.
Requêtes de recherche (générées par Copilot et envoyées à l’API recherche Bing) Stratégie Fabrikam
Finances Fabrikam
Réponse (générée par Copilot) Fabrikam est une start-up CPG qui offre des alternatives alimentaires plus saines, mais avec le même goût familier que les marques traditionnelles. L’entreprise a collecté 4,5 millions de dollars de fonds initiaux en 2019 et a levé 31,5 millions de dollars dans une série B de financement en 2022. En janvier 2023, Fabrikam a levé un total de 83,4 millions de dollars de financement et est sur la cible de plus du double de ses ventes cette année.

Lorsque la pandémie a frappé, Fabrikam a dû relever le défi de passer des magasins en de briques aux ventes en ligne, et c'est là que sa stratégie de marketing d'influence est entrée en jeu. Au lieu de s’appuyer sur des événements et des promotions en magasin, Fabrikam s’est orienté vers les réseaux sociaux et les partenariats d’influence pour développer la sensibilisation à la marque et atteindre un audience plus large. L'entreprise a également abordé l'innovation sous un angle authentique, en équilibrant les moteurs de consommation traditionnels avec des offres plus intéressantes pour vous et en adoptant une stratégie de distribution holistique et solide.

En résumé, Fabrikam a recueilli plus de 55 millions de dollars en financement et dispose d’une stratégie marketing de forte influence qui les a aidés se tourner vers les ventes en ligne pendant la pandémie.

Dans cet exemple, seules les deux requêtes de recherche sont envoyées à l’API Recherche Bing. Une fois que l’utilisateur a entré son invite, l’expérience de conversation affiche toutes les requêtes générées et envoyées à Bing. Les invites de l’utilisateur et les réponses de Copilot sont stockées dans Microsoft 365. Les requêtes de recherche envoyées à l’API Recherche Bing par Copilot pour Microsoft 365 sont dissociées de l’ID utilisateur et de l’ID client.

L’API Recherche Bing est fournie par Bing.com, qui fonctionne séparément de Microsoft 365 et a différentes pratiques de gestion des données. L’utilisation de Bing est couverte par le Contrat de services Microsoft entre chaque utilisateur et Microsoft, ainsi que la Déclaration de confidentialité Microsoft. La déclaration de protection des données (DPA) et des produits et services Microsoft ne s'applique pas à l'utilisation du plugin de contenu web ou de l'API de recherche Bing.

Contrôles disponibles pour gérer l’utilisation du contenu web

Les administrateurs peuvent bloquer l’accès au contenu web dans Copilot pour Microsoft 365. Pour plus d’informations, consultez Gérer l’accès au contenu web dans les réponses Microsoft Copilot pour Microsoft 365. Même s’ils sont autorisés par l’administrateur, les utilisateurs ont toujours la possibilité d’utiliser ou non le plug-in web. Pour plus d’informations, consultez Utiliser des sources de données supplémentaires avec Microsoft 365 Copilot.

Remarque

Les paramètres de stratégie qui contrôlent l’utilisation d’expériences connectées facultatives dans Microsoft 365 Apps ne s’appliquent pas à Microsoft Copilot pour Microsoft 365 et le contenu web.

Extensibilité de Microsoft Copilot pour Microsoft 365

Bien que Microsoft Copilot pour Microsoft 365 soit déjà en mesure d'utiliser les applications et les données au sein de l'écosystème Microsoft 365, de nombreuses organisations dépendent encore de divers outils et de services externes pour la gestion du travail et de la collaboration. Les références Microsoft Copilot pour Microsoft 365 peuvent référencer des outils et des services tiers lors de la réponse à la demande d’un utilisateur à l’aide deconnecteurs Microsoft Graph ou de plug-ins. Les données des connecteurs Graph peuvent être retournées dans les réponses Microsoft Copilot pour Microsoft 365 si l’utilisateur est autorisé à accéder à ces informations.

Lorsque les plug-ins sont activés, Microsoft Copilot pour Microsoft 365 détermine s’il doit utiliser un plug-in spécifique pour fournir une réponse pertinente à l’utilisateur. Si un plug-in est nécessaire, Microsoft Copilot pour Microsoft 365 génère une requête de recherche à envoyer au plug-in au nom de l’utilisateur. La requête est basée sur l'invite de l'utilisateur, l'historique des interactions avec Copilot et les données auxquelles l'utilisateur a accès dans Microsoft 365.

Dans la section Applications intégrées du Centre d’administration Microsoft 365, les administrateurs peuvent afficher les autorisations et l’accès aux données requis par un plug-in, ainsi que les conditions d’utilisation et la déclaration de confidentialité du plug-in. Les administrateurs disposent d’un contrôle total pour sélectionner les plug-ins autorisés dans leur organisation. Un utilisateur ne peut accéder qu'aux plug-ins autorisés par son administrateur et qu'il a installés ou qui lui ont été attribués. Microsoft Copilot pour Microsoft 365 utilise uniquement les plug-ins activés par l’utilisateur.

Remarque

Les paramètres de stratégie qui contrôlent l'utilisation des expériences connectées facultatives dans Microsoft 365 Apps ne s'appliquent pas aux plugins.

Si vous souhaitez en savoir plus, consultez les articles suivants :

Comment Microsoft Copilot pour Microsoft 365 protège-t-il les données de l'organisation ?

Le modèle d’autorisations relatif à votre locataire Microsoft 365 peut vous aider à garantir que les données ne fuient pas involontairement entre les utilisateurs, les groupes et les locataires. Microsoft Copilot pour Microsoft 365 présente uniquement les données auxquelles chaque individu a accès via les mêmes contrôles sous-jacents d'accès aux données que ceux utilisés dans les autres services Microsoft 365. L’index sémantique respecte la limite d’accès basée sur l’identité de l’utilisateur afin que le processus d’ancrage accède uniquement au contenu auquel l’utilisateur actuel est autorisé à accéder. Pour plus d’informations, consultez la politique de confidentialité et la documentation du service de Microsoft.

Lorsque vous avez des données chiffrées par Protection des données Microsoft Purview, Microsoft Copilot pour Microsoft 365 respecte les droits d’utilisation accordés à l’utilisateur. Ce chiffrement peut être appliqué par étiquettes de confidentialité ou par des autorisations restreintes dans les applications Microsoft 365 à l’aide de Gestion des droits relatifs à l'information (IRM). Pour plus d'informations sur l'utilisation de Microsoft Purview avec Microsoft Copilot pour Microsoft 365, consultez les protections de sécurité des données et de conformité de Microsoft Purview pour Microsoft Copilot.

Nous implémentons déjà plusieurs formes de protection pour empêcher les locataires de compromettre les services et applications Microsoft 365 ou d’obtenir un accès non autorisé à d’autres locataires ou au système Microsoft 365 lui-même. Voici quelques exemples de ces formes de protection :

  • L'isolation logique du contenu client au sein de chaque locataire pour les services Microsoft 365 est assurée par l'autorisation Microsoft Entra et le contrôle d'accès basé sur les rôles. Pour plus d’informations, consultez Contrôles d’isolation Microsoft 365.

  • Microsoft utilise une sécurité physique rigoureuse, un filtrage en arrière-plan et une stratégie de chiffrement multicouche pour protéger la confidentialité et l’intégrité du contenu client.

  • Microsoft 365 utilise des technologies côté service qui chiffrent le contenu client au repos et en transit, notamment BitLocker, le chiffrement par fichier, TLS (Transport Layer Security) et l’IPsec (Internet Protocol Security). Pour plus d’informations sur le chiffrement dans Microsoft 365, consultez Chiffrement dans Microsoft cloud.

  • Votre contrôle sur vos données est renforcé par l’engagement de Microsoft à se conformer aux lois de confidentialité largement applicables, telles que le RGPD, et aux normes de confidentialité, telles que ISO/IEC 27018, le premier code de pratique international pour la confidentialité du cloud.

  • Pour le contenu accessible via les plug-ins Microsoft Copilot pour Microsoft 365, le chiffrement peut exclure l’accès programmatique, ce qui limite l’accès au contenu par le plug-in. Pour plus d’informations, consultez Configurer des droits d’utilisation pour Azure Information Protection.

Respecter les exigences de conformité réglementaire

À mesure que la réglementation dans le domaine de l’IA évolue, Microsoft continuera à s’adapter et à répondre aux exigences réglementaires futures.

Microsoft Copilot pour Microsoft 365 s'appuie sur les engagements actuels de Microsoft en matière de sécurité et de confidentialité des données dans l'entreprise. Ces engagements ne sont pas modifiés. Microsoft Copilot pour Microsoft 365 est intégré à Microsoft 365 et respecte tous les engagements existants en matière de confidentialité, de sécurité et de conformité envers clients professionnels Microsoft 365. Pour plus d’informations, consultez Conformité Microsoft.

Au-delà de l’adhésion à la réglementation, nous accordons la priorité à un dialogue ouvert avec nos clients, partenaires et autorités de réglementation pour mieux comprendre et traiter les préoccupations, favorisant ainsi un environnement de confiance et de coopération. Nous reconnaissons que la confidentialité, la sécurité et la transparence ne sont pas seulement des fonctionnalités, mais également des prérequis dans le paysage piloté par l’IA.

Informations supplémentaires

Microsoft Copilot pour Microsoft 365 et paramètres de stratégie pour les expériences connectées.

Si vous désactivez les expériences connectées qui analysent le contenu des Microsoft 365 Apps sur les appareils Windows ou Mac de votre organisation, les fonctionnalités Microsoft Copilot pour Microsoft 365 ne seront pas disponibles pour vos utilisateurs dans les applications suivantes :

  • Excel
  • PowerPoint
  • OneNote
  • Word

De même, les fonctionnalités de Microsoft Copilot pour Microsoft 365 dans ces applications sur les appareils Windows ou Mac ne seront pas disponibles si vous désactivez l'utilisation des expériences connectées pour Microsoft 365 Apps.

Pour plus d’informations sur ces paramètres de stratégie, consultez les articles suivants :

À propos du contenu créé par Microsoft Copilot pour Microsoft 365

Les réponses générées par l’intelligence artificielle ne sont pas garanties à 100 %. Même si nous continuons à améliorer les réponses, les utilisateurs doivent toujours faire preuve de discernement lorsqu'ils examinent les résultats avant de les envoyer à d'autres. Nos fonctionnalités Microsoft Copilot pour Microsoft 365 fournissent des brouillons et des résumés utiles pour vous aider à en faire plus tout en vous donnant la possibilité d'examiner l'IA générée plutôt que d'automatiser entièrement ces tâches.

Nous continuons à améliorer les algorithmes pour résoudre de manière proactive les problèmes, tels que la désinformation, le blocage de contenu, la sécurité des données et la prévention de la promotion de contenu préjudiciable ou discriminatoire, conformément à nos principes d'IA responsable.

Microsoft ne revendique pas la propriété des résultats du service. Cela dit, nous ne vérifions pas si le résultat obtenu par un client est protégée par le droit d’auteur ou applicable à d’autres utilisateurs. Les systèmes d'IA générative peuvent produire des réponses similaires à des invites ou des requêtes similaires provenant de plusieurs utilisateurs ou clients. Par conséquent, plusieurs clients peuvent avoir ou revendiquer des droits sur un contenu identique ou sensiblement similaire.

Si un tiers poursuit un client commercial pour violation du droit d'auteur pour avoir utilisé les Copilots de Microsoft ou les résultats qu'ils génèrent, nous défendrons le client et paierons le montant de tout jugement ou règlement défavorable résultant du procès, à condition que le client ait utilisé le garde-corps et filtres de contenu que nous avons intégrés à nos produits. Pour plus d’informations, consultez Microsoft annonce un nouvel engagement de copyright Copilot pour les clients.

Engagement en matière d’IA responsable

À mesure que l’IA est prête à transformer nos vies, nous devons collectivement définir de nouvelles règles, normes et pratiques pour l’utilisation et l’impact de cette technologie. Microsoft s'est engagé dans une démarche d'IA responsable depuis 2017, date à laquelle nous avons défini nos principes et notre approche pour nous assurer que cette technologie est utilisée d'une manière conforme à des principes éthiques qui placent les personnes au premier plan.

Chez Microsoft, nous sommes guidés par nos principes d'IA, notre norme d'IA responsable et des décennies de recherche sur l'IA, l'ancrage et l'apprentissage automatique préservant la vie privée. Une équipe multidisciplinaire de chercheurs, d'ingénieurs et d'experts en stratégie examine nos systèmes d'IA afin de déterminer les risques potentiels et les moyens de les atténuer – en affinant les données d'entraînement, en filtrant pour limiter les contenus nuisibles, en bloquant les requêtes et les résultats sur les sujets sensibles, et en appliquant des technologies Microsoft telles qu'InterpretML et Fairlearn pour aider à détecter et à corriger les biais dans les données. Nous expliquons clairement comment le système prend ses décisions en signalant les limites, en établissant des liens vers les sources et en invitant les utilisateurs à examiner, à vérifier les faits et à ajuster le contenu en fonction de leur expertise dans le domaine concerné. Pour plus d’informations, consultez Gouvernance de l’IA : un plan d'action pour l’avenir.

Nous souhaitons aider nos clients à utiliser nos produits d'IA de manière responsable, en partageant nos connaissances et en établissant des partenariats fondés sur la confiance. Pour ces nouveaux services, nous voulons fournir à nos clients des informations sur les utilisations, les fonctionnalités et les limitations prévues de notre service de plateforme d’IA, afin qu’ils disposent des connaissances nécessaires pour faire des choix de déploiement responsables. Nous partageons également des ressources et des modèles avec des développeurs au sein d’organisations et avec des éditeurs de logiciels indépendants pour les aider à créer des solutions d’IA efficaces, sécurisées et transparentes.