FAQ sur la sécurité et la confidentialité des données Copilot pour Dynamics 365 et Power Platform
Copilot pour Dynamics 365 et Power Platform présente suivre un ensemble de pratiques de base en matière de sécurité et de confidentialité et la Microsoft norme d’IA responsable. Les données Dynamics 365 et Power Platform sont protégées par des contrôles de conformité, de sécurité et de confidentialité complets et à la pointe du secteur.
Copilot est basé sur Microsoft Azure OpenAI Service et est entièrement exécuté dans le cloud Azure. Azure OpenAI offre une disponibilité régionale et un filtre de contenu IA responsable. Copilot utilise des modèles OpenAI avec toutes les fonctionnalités de sécurité de Microsoft Azure. OpenAI est une organisation indépendante. Nous ne partageons pas vos données avec OpenAI.
Les fonctionnalités Copilot ne sont pas disponibles dans toutes les régions géographiques et langues Azure. Selon l’endroit où votre environnement est hébergé, vous devrez peut-être autoriser le déplacement des données entre les zones géographiques pour les utiliser. Pour en savoir plus, consultez les articles répertoriés sous Déplacement des données entre les zones géographiques.
Qu’arrive-t-il à mes données lorsque j’utilise Copilot ?
Vous avez le contrôle de vos données. Microsoft ne partagez pas vos données avec un tiers à moins que vous n’ayez donné votre autorisation. De plus, nous n’utilisons pas vos données client pour former Copilot ou ses fonctionnalités d’IA, sauf si vous nous donnez votre consentement pour le faire. Copilot adhère aux autorisations et politiques de données existantes, et ses réponses à vous sont basées uniquement sur les données auxquelles vous avez personnellement accès. Pour en savoir plus sur la manière de contrôler vos données et comment vos données sont traitées, consultez les articles répertoriés sous Copilot dans les applications Dynamics 365 et Power Platform.
Copilot surveille les utilisations abusives ou nuisibles du service avec un traitement transitoire. Nous ne stockons ni n’effectuons d’examen oculaire des entrées et sorties de Copilot à des fins de surveillance des abus.
Comment Copilot utilise-t-il mes données ?
Chaque service ou fonctionnalité utilise Copilot en fonction des données que vous fournissez ou configurez pour être traitées par Copilot.
Vos invites (entrées) et les réponses de Copilot (sorties ou résultats) :
Ne sont PAS disponibles pour les autres clients.
Ne sont PAS utilisées pour former ou améliorer des produits ou services tiers (comme les modèles OpenAI).
Ils ne sont PAS utilisés pour former ou améliorer Microsoft les modèles d’IA, sauf si l’administrateur de votre locataire choisit de partager des données avec nous. Pour en savoir plus, consultez la FAQ sur le partage de données facultatif pour les fonctionnalités Copilot AI dans Dynamics 365 et . Power Platform
En savoir plus sur la confidentialité et la sécurité des données du service Azure OpenAI . Pour en savoir plus sur la manière dont Microsoft nous protégeons et utilisons vos données de manière plus générale, lisez notre Déclaration de confidentialité.
Où vont mes données ?
Microsoft fonctionne sur la confiance. Nous nous engageons à garantir la sécurité, la confidentialité et la conformité dans tout ce que nous faisons, et notre approche de l’IA n’est pas différente. Les données client, y compris les entrées et sorties Copilot, sont stockées dans le Cloud trust délimitation. Microsoft
Dans certains scénarios, tels que les fonctionnalités optimisées par Bing et les plug-ins copilotes tiers, les données client peuvent être transmises en dehors du Cloud de confiance délimitation. Microsoft
Copilot peut-il accéder au contenu chiffré ?
Les données sont fournies à Copilot en fonction du niveau d’accès de l’utilisateur actuel. Si un utilisateur a accès aux données chiffrées dans Dynamics 365 et Power Platform et que l’utilisateur les fournit à Copilot, Copilot y accède.
Comment Copilot protège-t-il les données des clients ?
Microsoft est particulièrement bien placé pour fournir une IA adaptée à l’entreprise. Optimisé par Azure OpenAI Service, Copilot est conforme à nos engagements réglementaires existants en matière de confidentialité, de sécurité et de conformité envers nos clients.
Construit sur l’approche globale de Microsoft en matière de sécurité, de confidentialité et de conformité. Copilot est intégré à des services tels que Dynamics 365 et Microsoft et hérite de leurs politiques et processus de sécurité, de confidentialité et de conformité, tels que l’authentification multifacteur et les limites de conformité. Power Platform
Plusieurs formes de protection pour sauvegarder les données de l’organisation. Les technologies côté service chiffrent le contenu organisationnel au repos et en transit pour une sécurité renforcée. Les connexions sont protégées par Transport couche Security (TLS) et les transferts de données entre Dynamics 365, Power Platform et Azure OpenAI s’effectuent sur le Microsoft réseau principal, garantissant à la fois fiabilité et sécurité. En savoir plus sur le chiffrement dans le Microsoft Cloud.
Conçu pour protéger vos données au niveau du client et de l’environnement. Nous savons que la fuite de données est une préoccupation pour les clients. Microsoft Les modèles d’IA ne sont pas formés et n’apprennent pas à partir des données de vos locataires ou de vos invites, sauf si l’administrateur de votre locataire a choisi de partager des données avec nous. Au sein de vos environnements, vous pouvez contrôler l’accès via les autorisations que vous configurez. Les mécanismes d’authentification et d’autorisation séparent les demandes adressées au modèle partagé entre les clients. Copilot utilise uniquement les données auxquelles vous seul pouvez accéder en utilisant la même technologie que nous utilisons depuis des années pour sécuriser les données des clients.
Les réponses de Copilot sont-elles toujours factuelles ?
Comme pour toute IA générative, les réponses du copilote ne sont pas factuelles à 100 %. Bien que nous continuions à améliorer les réponses aux demandes factuelles, vous devez toujours faire preuve de jugement et examiner les résultats avant de les envoyer à d’autres. Copilot fournit des brouillons et des résumés utiles pour vous aider à en faire plus, mais il est entièrement automatique. Vous avez toujours la possibilité de consulter le contenu généré par l’IA.
Nos équipes s’efforçent de résoudre de manière proactive les problèmes tels que la mésinformation et la désinformation, le blocage de contenu, la sécurité des données et la promotion de contenu préjudiciable ou discriminatoire, conformément à nos principes de l’IA responsable.
Nous offrons également des conseils dans le cadre de l’expérience utilisateur pour renforcer l’utilisation responsable du contenu généré par l’IA et des actions suggérées.
Instructions et invites. Lorsque vous utilisez Copilot, des invites et autres éléments d’information vous rappellent d’examiner et de modifier les réponses si nécessaire, et de vérifier manuellement l’exactitude des faits, des données et du texte avant d’utiliser le contenu généré par l’IA.
Sources citées. Le cas échéant, Copilot cite ses sources d’informations, qu’elles soient publiques ou internes, afin que vous puissiez les consulter vous-même pour confirmer ses réponses.
Pour plus d’informations, consultez la FAQ sur l’IA responsable pour votre produit sur Microsoft Learn.
Comment Copilot bloque-t-il les contenus nuisibles ?
Azure OpenAI Service comprend un système de filtrage de contenu qui fonctionne parallèlement aux modèles de base. Les modèles de filtrage de contenu pour les catégories Haine et équité, Sexualité, Violence et Auto-mutilation ont été spécifiquement formés et testés dans plusieurs langues. Ce système fonctionne en exécutant à la fois l’invite de saisie et la réponse via des modèles de classification conçus pour identifier et bloquer la sortie de contenu nuisible.
Les préjudices liés à la haine et à l’équité font référence à tout contenu utilisant un langage péjoratif ou discriminatoire basé sur des attributs tels que la race, l’origine ethnique, la nationalité, l’identité et l’expression de genre, l’orientation sexuelle, la religion, le statut d’immigration, les capacités, l’apparence personnelle et la taille. L’équité consiste à garantir que les systèmes d’IA traitent équitablement tous les groupes de personnes sans contribuer aux inégalités sociétales existantes. Le contenu sexuel implique des discussions sur les organes reproducteurs humains, les relations amoureuses, les actes décrits en termes érotiques ou affectueux, la grossesse, les actes sexuels physiques, y compris ceux décrits comme une agression ou un acte forcé de violence sexuelle, la prostitution, la pornographie et les abus. La violence décrit le langage lié aux actions physiques destinées à blesser ou à tuer, y compris les actions, les armes et les entités associées. Le langage de l’auto-mutilation fait référence à des actions délibérées visant à se blesser ou à se suicider.
En savoir plus sur le filtrage de contenu Azure OpenAI .
Copilot bloque-t-il les injections d’invites (attaques de jailbreak) ?
Les attaques de jailbreak sont des invites utilisateur conçues pour inciter le modèle d’IA générative à se comporter d’une manière qu’il n’a pas été formé à faire ou à enfreindre les règles qui lui ont été imposées suivre. Les services dans Dynamics 365 et Power Platform sont requis pour protéger contre les injections d’invites. En savoir plus sur les attaques de jailbreak et comment utiliser Azure AI Content Safety pour les détecter.
Copilot bloque-t-il les injections d’invites indirectes (attaques indirectes) ?
Les attaques indirectes, également appelées attaques par invite indirecte ou attaques par injection d’invite inter-domaines constituent une vulnérabilité potentielle où des tiers placent des instructions malveillantes à l’intérieur de documents auxquels le système d’IA générative peut accéder et traiter. Les services dans Dynamics 365 et Power Platform doivent protéger contre les injections d’invite indirectes. En savoir plus sur les attaques indirectes et comment utiliser Azure AI Content Safety pour les détecter.
Comment teste-t-on et valide-t-on la qualité du Copilot, y compris la protection contre les injections rapides et les réponses à la terre ? Microsoft
Chaque nouvelle itération de produit Copilot et de modèle de langage doit passer un examen interne de l’IA responsable avant son lancement. Avant la mise en production, nous utilisons un processus appelé « red-teaming » (dans lequel une équipe simule une attaque ennemie, trouvant et exploitant les faiblesses pour aider l’organisation à améliorer ses défenses) pour évaluer les risques potentiels liés aux contenus nuisibles, aux scénarios de jailbreak et aux réponses fondées. Après la mise en production, nous utilisons des tests automatisés et des outils d’évaluation manuels et automatisés pour évaluer la qualité des réponses Copilot.
Comment améliorer le modèle de fondation et mesurer les améliorations dans les réponses fondées ? Microsoft
Dans le contexte de l’IA, en particulier de l’IA qui traite des modèles de langage comme celui sur lequel Copilot est basé, l’ancrage permet à l’IA de générer des réponses plus pertinentes et plus logiques dans le monde réel. L’ancrage permet de garantir que les réponses de l’IA sont basées sur des informations fiables et sont aussi précises et pertinentes que possible. Les mesures de réponse fondée évaluent avec quelle précision les faits énoncés dans le contenu de base fourni au modèle sont représentés dans la réponse finale.
Les modèles de fondation comme GPT-4 sont améliorés par les techniques de génération augmentée de récupération (RAG). Ces techniques permettent aux modèles d’utiliser plus d’informations que celles sur lesquelles ils ont été formés pour comprendre le scénario d’un utilisateur. La RAG fonctionne en identifiant d’abord les données pertinentes pour le scénario, de la même manière qu’un moteur de recherche identifie les pages Web pertinentes pour les termes de recherche de l’utilisateur. Elle utilise plusieurs approches pour identifier le contenu pertinent pour l’invite de l’utilisateur et doit être utilisé pour étayer la réponse. Les approches incluent la recherche sur différents types d’index, tels que les index inversés utilisant des techniques de récupération d’informations telles que la correspondance de termes, ou les index vectoriels utilisant des comparaisons de distances vectorielles pour la similarité sémantique. Après avoir identifié les documents pertinents, la RAG transmet les données au modèle avec la conversation en cours, donnant au modèle plus de contexte pour mieux comprendre les informations dont il dispose déjà et générer une réponse ancrée dans le monde réel. Enfin, la RAG vérifie la réponse pour s’assurer qu’elle est prise en charge par le contenu source fourni au modèle. Les fonctionnalités d’IA générative de Copilot intègrent la RAG de plusieurs manières. Un exemple n’est autre que la conversation instantanée avec utilisation des données, où un chatbot est ancré avec les propres sources de données du client.
Une autre méthode pour améliorer les modèles fondamentaux est connue sous le nom de réglage affiné. Un important jeu de données de paires requête-réponse est présenté à un modèle fondamental pour augmenter sa formation d’origine avec de nouveaux échantillons ciblés sur un scénario spécifique. Le modèle peut ensuite être déployé en tant que modèle distinct, adapté à ce scénario. Tandis que l’ancrage consiste à rendre les connaissances de l’IA pertinentes pour le monde réel, le réglage affiné consiste à rendre les connaissances de l’IA plus spécifiques à une tâche ou à un domaine particulier. Microsoft utilise le réglage fin de plusieurs manières. Par exemple, nous utilisons la création de flux Power Automate à partir de descriptions en langage naturel fournies par l’utilisateur.
Copilot répond-t-il aux exigences de conformité réglementaire ?
Microsoft Copilot fait partie de l’écosystème Dynamics 365 et Power Platform et répond aux mêmes exigences de conformité réglementaire. Pour plus d’informations sur les certifications réglementaires des services Microsoft, accédez au Portail de confiance des services. De plus, Copilot adhère à notre engagement en matière d’IA responsable, qui est mis en œuvre conformément à nos standards d’IA responsable. À mesure que la réglementation en matière d’IA évolue, elle continue de s’adapter et de répondre aux nouvelles exigences. Microsoft
En savoir plus
Copilot dans les applications Dynamics 365 et Power Platform
Pour en savoir plus, consultez la FAQ sur le partage de données facultatif pour les fonctionnalités Copilot AI dans Dynamics 365 et . Power Platform
Disponibilité régionale et linguistique
Disponibilité internationale du copilote
Déplacement des données entre les zones géographiques
- Comment fonctionne le déplacement des données entre régions
- Configurer le déplacement des données entre les emplacements géographiques pour les fonctionnalités d’IA génératives en dehors des États-Unis
- Copiloter le déplacement des données entre les zones géographiques dans Dynamics 365 Sales
- Copilote le déplacement des données à travers les zones géographiques Dynamics 365 Business Central
Sécurité à Microsoft
- Introduction à la sécurité Azure
- Cryptage dans le Microsoft Nuage
- Données, confidentialité et sécurité pour Azure OpenAI Service – Services d’IA Azure
Confidentialité à Microsoft
Microsoft Déclaration de confidentialité