Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Avant de commencer à utiliser Copilot dans Fabric, vous pouvez avoir des questions sur son fonctionnement, sur la façon dont elle protège vos données métier et respecte les exigences de confidentialité et comment utiliser l’IA générative de manière responsable.
Cet article fournit des réponses aux questions courantes relatives à la sécurité et à la confidentialité des données métiers pour aider votre organisation à bien démarrer avec Copilot Fabric. L’article Confidentialité, sécurité et utilisation responsable de Copilot Power BI (préversion) fournit une vue d’ensemble de Copilot Power BI. Pour obtenir plus d'informations sur Copilot pour Fabric, poursuivez la lecture.
Remarque
- Votre administrateur doit activer le commutateur de locataire avant de commencer à utiliser Copilot. Pour plus d’informations, consultez l’article Copilot paramètres du locataire.
- Votre capacité F2 ou P1 doit se trouver dans l’une des régions répertoriées dans cet article, disponibilité de la région Fabric.
- Si votre locataire ou votre capacité se trouve en dehors des États-Unis ou de la France, Copilot est désactivé par défaut, sauf si votre administrateur du locataire Fabric active le paramètre de locataire "Les données envoyées à Azure OpenAI peuvent être traitées en dehors de la région géographique de votre locataire, de la limite de conformité ou de l'instance de cloud national" dans le portail d’administration Fabric.
- Copilot dans Microsoft Fabric n’est pas pris en charge sur les SKU de version d'essai. Seules les références SKU payantes (F2 ou version ultérieure, ou P1 ou ultérieure) sont prises en charge.
- Pour plus d’informations, consultez l’article Vue d’ensemble de Copilot dans Fabric et Power BI.
Les données métier sont sécurisées
- Copilot les fonctionnalités utilisent Azure OpenAI Service, qui est entièrement contrôlé par Microsoft. Vos données ne sont pas utilisées pour entraîner des modèles et ne sont pas disponibles pour d’autres clients.
- Vous conservez le contrôle sur l’endroit où vos données sont traitées. Les données traitées dans Copilot Fabric restent dans la région géographique de votre locataire, sauf si vous autorisez explicitement le traitement des données en dehors de votre région, par exemple pour permettre à vos utilisateurs d’utiliser Copilot quand Azure OpenAI n’est pas disponible dans votre région ou que la disponibilité est limitée en raison d’une forte demande. En savoir plus sur les paramètres d’administration pour Copilot.
- Copilot ne stocke pas vos données pour la surveillance des abus. Pour améliorer la confidentialité et la confiance, nous avons mis à jour notre approche de la surveillance des abus : avant, nous conservions les données à partir de Copilot dans Fabric, notamment les entrées et les sorties d’invite, pendant 30 jours maximum pour vérifier la présence d’abus ou de mauvaises utilisations. Suite aux commentaires des clients, nous avons éliminé cette rétention de 30 jours. Maintenant, nous ne stockons plus de données connexes promptes, démontrant notre engagement indéfectible à votre confidentialité et à votre sécurité.
Vérifier les sorties Copilot
- Copilot les réponses peuvent inclure du contenu incorrect ou de faible qualité. Veillez donc à passer en revue les sorties avant de les utiliser dans votre travail.
- Les personnes capables d’évaluer de manière significative la précision et l’adéquation du contenu doivent passer en revue les sorties.
- Aujourd’hui, les fonctionnalités de Copilot fonctionnent mieux dans la langue anglaise. D’autres langues peuvent ne pas fonctionner aussi bien.
Important
Passez en revue les conditions d’évaluation supplémentaires pour Fabric, qui incluent les conditions d’utilisation pour les aperçus du service Microsoft IA Générative.
Comment fonctionne Copilot
Dans cet article, Copilot fait référence à une gamme de fonctionnalités et de fonctionnalités d’IA génératives dans Fabric qui sont alimentées par Azure OpenAI Service.
En général, ces fonctionnalités sont conçues pour générer du langage naturel, du code ou d’autres contenus en fonction des éléments suivants :
(a) entrées que vous fournissez et,
(b) données de référence auxquelles la fonctionnalité a accès.
Par exemple, Power BI, Data Factory et la science des données offrent des Copilot conversations où vous pouvez poser des questions et obtenir des réponses contextuelles sur vos données. Copilot Pour Power BI, vous pouvez également créer des rapports et d’autres visualisations. Copilot Pour Data Factory, vous pouvez transformer vos données et expliquer les étapes qu’elle a appliquées. La science des données offre des fonctionnalités Copilot en dehors du volet de conversation, telles que les commandes magiques IPython personnalisées dans les notebooks. Copilot Les conversations peuvent être ajoutées à d’autres expériences dans Fabric, ainsi que d’autres fonctionnalités qui sont alimentées par Azure OpenAI sous le capot.
Ces informations sont envoyées au service Azure OpenAI, où elles sont traitées et qu’une sortie est générée. Par conséquent, les données traitées par Azure OpenAI peuvent inclure :
Les données de base peuvent inclure une combinaison de schéma de jeu de données, de points de données spécifiques et d’autres informations pertinentes pour la tâche actuelle de l’utilisateur. Passez en revue chaque section d’expérience pour les détails sur les données accessibles aux fonctionnalités Copilot dans ce scénario.
Les interactions avec Copilot sont spécifiques à chaque utilisateur. Cela signifie que Copilot seul l’utilisateur actuel peut accéder aux données auxquelles l’utilisateur actuel a l’autorisation d’accéder, et ses sorties ne sont visibles que par cet utilisateur, sauf si cet utilisateur partage la sortie avec d’autres utilisateurs, comme le partage d’un rapport Power BI généré ou le code généré. Copilot n’utilise pas de données provenant d’autres utilisateurs du même locataire ou d’autres locataires.
Copilot utilise Azure OpenAI, et non les services OpenAI disponibles publiquement, pour traiter toutes les données, notamment les entrées utilisateur, les données de base et Copilot les sorties. Copilot utilise actuellement une combinaison de modèles GPT, y compris GPT 3.5. Microsoft héberge les modèles OpenAI dans l’environnement Microsoft Azure et le service n’interagit pas avec les services d’OpenAI, tels que ChatGPT ou l’API OpenAI. Vos données ne sont pas utilisées pour entraîner des modèles et ne sont pas disponibles pour d’autres clients. En savoir plus sur Azure OpenAI.
Vérifier le Copilot processus
Ces fonctionnalités suivent le même processus général :
- Copilot reçoit une invite d’un utilisateur. Cette invite peut être sous la forme d’une question que l’utilisateur tape dans un volet de conversation ou sous la forme d’une action telle que la sélection d’un bouton qui indique « Créer un rapport ».
- Copilot prétraite l’invite à travers une approche appelée Ancrage. Selon le scénario, cela peut inclure la récupération de données pertinentes telles que le schéma de jeu de données ou l’historique des conversations à partir de la session active de l’utilisateur avec Copilot. L'ancrage améliore la spécificité de l’invite, de sorte que l’utilisateur obtient des réponses pertinentes et exploitables pour sa tâche spécifique. La récupération des données est limitée aux données accessibles à l’utilisateur authentifié en fonction de ses autorisations. Pour plus d’informations, consultez la section Quelles données Copilot utilisent et comment sont-elles traitées ? dans cet article.
- Copilot prend la réponse d’Azure OpenAI et la postprocesse. Selon le scénario, ce post-traitement peut inclure des vérifications d’IA responsables, un filtrage avec modération de contenu Azure ou des contraintes supplémentaires propres à l’entreprise.
- Copilot retourne une réponse à l’utilisateur sous la forme d’un langage naturel, d’un code ou d’un autre contenu. Par exemple, une réponse peut se trouver sous la forme d’un message de conversation ou d’un code généré, ou il peut s’agir d’un formulaire contextuel approprié tel qu’un rapport Power BI ou une cellule de bloc-notes Synapse.
- L’utilisateur passe en revue la réponse avant de l’utiliser. Copilot les réponses peuvent inclure du contenu incorrect ou de faible qualité. Il est donc important pour les experts en matière de vérifier les sorties avant de les utiliser ou de les partager.
Tout comme chaque expérience de Fabric est conçue pour certains scénarios et personas, des ingénieurs de données aux analystes de données, chaque fonctionnalité de Fabric a également été créée avec des scénarios uniques et des utilisateurs à l’esprit. Pour connaître les fonctionnalités, les utilisations prévues et les limitations de chaque fonctionnalité, consultez la section relative à l’expérience dans laquelle vous travaillez.
Définitions
Invite ou entrée
Le texte ou l'action soumis à Copilot par un utilisateur. Cela peut être sous la forme d’une question que l’utilisateur tape dans un volet de conversation ou sous la forme d’une action telle que la sélection d’un bouton qui indique « Créer un rapport ».
Ancrage
Technique de prétraitement où Copilot récupère des données supplémentaires contextuelles à l’invite de l’utilisateur, puis envoie ces données avec l’invite de l’utilisateur à Azure OpenAI afin de générer une réponse plus pertinente et exploitable.
Réponse ou sortie
Le contenu que Copilot retourne à un utilisateur. Par exemple, une réponse peut être sous la forme d’un message de conversation ou d’un code généré, ou il peut s’agir d’un contenu approprié dans le contexte, tel qu’un rapport Power BI ou une cellule de bloc-notes Synapse.
Quelles données Copilot utilisent-elles et comment sont-elles traitées ?
Pour générer une réponse, Copilot utilise :
- La commande ou l’entrée de l’utilisateur et, le cas échéant,
- Des données supplémentaires récupérées via le processus de base.
Ces informations sont envoyées au service Azure OpenAI, où elles sont traitées et qu’une sortie est générée. Par conséquent, les données traitées par Azure OpenAI peuvent inclure :
- Invite ou entrée de l’utilisateur.
- Mise à la base des données.
- Réponse ou résultat de l’IA.
Les données de base peuvent inclure une combinaison de schéma de jeu de données, de points de données spécifiques et d’autres informations pertinentes pour la tâche actuelle de l’utilisateur. Passez en revue chaque section d’expérience pour les détails sur les données accessibles aux fonctionnalités Copilot dans ce scénario.
Les interactions avec Copilot sont spécifiques à chaque utilisateur. Cela signifie que Copilot seul l’utilisateur actuel peut accéder aux données auxquelles l’utilisateur actuel a l’autorisation d’accéder, et ses sorties ne sont visibles que par cet utilisateur, sauf si cet utilisateur partage la sortie avec d’autres utilisateurs, comme le partage d’un rapport Power BI généré ou le code généré. Copilot n’utilise pas de données provenant d’autres utilisateurs du même locataire ou d’autres locataires.
Copilot utilise Azure OpenAI, et non les services publics d’OpenAI, pour traiter toutes les données, y compris les entrées utilisateur, les données de base et Copilot les sorties. Copilot utilise actuellement une combinaison de modèles GPT, y compris GPT 3.5. Microsoft héberge les modèles OpenAI dans l’environnement Azure de Microsoft et le service n’interagit pas avec les services d’OpenAI (par exemple, ChatGPT ou l’API OpenAI). Vos données ne sont pas utilisées pour entraîner des modèles et ne sont pas disponibles pour d’autres clients. En savoir plus sur Azure OpenAI.
Surveillance abusive des invites
Copilot et les expériences d’IA dans Fabric ne sont pas actuellement intégrées à une surveillance automatisée des abus de vos requêtes. Cela signifie que nous n'analysons actuellement aucune requête de clients visant à surveiller le contenu abusif. Cela signifie également qu'aucune conservation des invites n'est en place à cet effet.
Résidence et conformité des données
Vous conservez le contrôle sur l’endroit où vos données sont traitées. Les données traitées dans Copilot Fabric restent dans la région géographique de votre locataire, sauf si vous autorisez explicitement le traitement des données en dehors de votre région, par exemple pour permettre à vos utilisateurs d’utiliser Copilot quand Azure OpenAI n’est pas disponible dans votre région ou que la disponibilité est limitée en raison d’une forte demande. (Voir où Azure OpenAI est actuellement disponible.)
Pour autoriser le traitement des données ailleurs, votre administrateur peut activer le paramètre Données envoyées à Azure OpenAI peut être traité en dehors de la région géographique, de la limite de conformité ou de l’instance de cloud nationale de votre locataire. En savoir plus sur les paramètres d’administration pour Copilot.
Que dois-je savoir pour utiliser Copilot de manière responsable ?
Microsoft s’engage à s’assurer que nos systèmes d’IA sont guidés par nos principes d’IA et par la Norme d’IA responsable. Ces principes incluent la possibilité pour nos clients d’utiliser ces systèmes efficacement et conformément à leurs utilisations prévues. Notre approche de l’IA responsable évolue continuellement pour résoudre de manière proactive les problèmes émergents.
Les fonctionnalités de Copilot dans Fabric sont conçues pour répondre à la norme d’IA responsable, ce qui signifie qu’elles sont examinées par des équipes multidisciplinaires pour les dommages potentiels, puis affinées pour inclure des atténuations pour ces dommages.
Avant d’utiliser Copilot, gardez à l’esprit les limitations de Copilot:
- Les réponses Copilot peuvent inclure du contenu incorrect ou de faible qualité. Veillez donc à passer en revue les sorties avant de les utiliser dans votre travail.
- Les personnes capables d’évaluer de manière significative la précision et l’adéquation du contenu doivent passer en revue les sorties.
- Actuellement, Copilot les fonctionnalités fonctionnent mieux dans la langue anglaise. D’autres langues peuvent ne pas fonctionner aussi bien.
Copilot pour les charges de travail Fabric
Confidentialité, sécurité et utilisation responsable pour :
- Copilot pour Data Factory (préversion)
- Copilot for Data Science (préversion)
- Copilot dans Fabric dans Data Warehouse (préversion)
- Copilot dans Fabric dans la base de données SQL (préversion)
- Copilot pour Power BI
- Copilot pour Assistant Time Intelligence (préversion)