Édition

Share via


Questions fréquentes sur Copilot dans Azure Cosmos DB (préversion).

Cet article fournit des informations sur les questions générales et de transparence fréquemment posées sur Microsoft Copilot pour Azure Cosmos DB.

Général

Que peut faire Copilot ?

Copilot peut vous aider à écrire des requêtes NoSQL sur vos propres données avec facilité et confiance, afin de dynamiser votre productivité grâce au langage naturel alimenté par l’IA pour la génération de requêtes.

Quelles sont les données qui ont été utilisées pour former Copilot ?

Copilot est alimenté par des grands modèles de langage (LLM) dans Azure OpenAI qui sont préformés, puis configurés pour générer des requêtes NoSQL Azure Cosmos DB et des explications en langage naturel.

Comment un utilisateur peut-il tirer le meilleur parti de Copilot ?

Les utilisateurs peuvent tirer le meilleur parti de leur expérience en effectuant ces étapes :

  • Entrer une invite pour que l’intelligence artificielle génère une requête sur un conteneur Azure Cosmos DB spécifique. Les utilisateurs peuvent taper une invite en langage naturel dans la zone Copilot et sélectionner le bouton Générer une requête. Copilot génère ensuite une requête Azure Cosmos DB for NoSQL qui correspond à l’invite, et l’affiche dans l’éditeur de requête, accompagnée d’une explication.
  • Modifier l’invite pour qu’elle soit plus spécifique et regénérer la requête : si l’utilisateur n’est pas satisfait de la requête générée par Copilot, il peut sélectionner le bouton Regénérer pour demander à l’IA de générer une autre requête basée sur l’invite affinée.
  • Envoyer des commentaires : les utilisateurs peuvent fournir des commentaires à l’équipe Copilot à l’aide du mécanisme de commentaires inclus dans l’invite de requête. Ces commentaires sont utilisés pour améliorer la qualité des performances des réponses Copilot.

Transparence

Quelles sont les données collectées par Copilot, et comment peuvent-elles être utilisées ?

Copilot s’appuie sur le schéma des éléments de votre conteneur Azure Cosmos DB pour fonctionner. Il collecte des données pour fournir le service, dont certaines sont ensuite conservées pour l’analyse, l’atténuation des erreurs et les améliorations apportées aux produits. Selon les conditions d’utilisation de la préversion, vos données peuvent être stockées et traitées en dehors de la région géographique de votre locataire, des limites de conformité ou de l’instance nationale du cloud.

Les données collectées comprennent :

  • Données de service : lorsque vous utilisez Copilot dans Azure Cosmos DB, il collecte des informations d’utilisation sur les événements générés lors de l’interaction avec le service Copilot. Ces données incluent des informations telles qu’un timestamp, un ID de base de données, un ID de collection, un code de réponse HTTP, une latence de requête HTTP, etc. Ces données peuvent être utilisées pour les améliorations de service et l’atténuation des erreurs.
  • Journalisation : si une erreur se produit dans le service Azure Cosmos DB, nous enregistrons l’erreur et d’autres données utilisées par le service au moment de l’erreur. Ces journaux peuvent inclure des informations telles que l’invite que vous avez entrée dans Copilot, la requête générée ou les informations relatives à votre schéma de données envoyés au service Copilot. Ces données peuvent être utilisées pour les améliorations de service et l’atténuation des erreurs.
  • Commentaires : les utilisateurs ont la possibilité de donner des commentaires sur une requête spécifique. Ces données de commentaires contiennent également l’invite envoyée à Copilot par l’utilisateur, la requête et l’explication générées, ainsi que les commentaires que l’utilisateur souhaite fournir à Microsoft. Ces données peuvent être utilisées pour améliorer le produit.

Comment l’invite transmise et les données de requête sont-elles protégées ?

Copilot prend plusieurs mesures pour protéger les données, notamment :

  • Les données transmises sont chiffrées en transit et au repos. Les données Copilot sont chiffrées en transit à l’aide de stockage local de thread (TLS) et au repos à l’aide du chiffrement des données de Microsoft Azure (normes FIPS Publication 140-2).
  • L’accès aux données de journal et de commentaires est strictement contrôlé. Les données sont stockées dans un abonnement distinct. Les données sont accessibles uniquement par 1) approbation JIT juste-à-temps du personnel des opérations Azure à l’aide de stations de travail d’administration sécurisées.

Mes invites, requêtes ou données privées seront-elles partagées avec d’autres personnes ?

Nombre Les invites, les requêtes et toutes les autres données ne sont pas partagées avec d’autres personnes.

Où puis-je en savoir plus sur la confidentialité et la protection des données ?

Pour plus d’informations sur la façon dont Copilot traite et utilise les données personnelles, consultez la Déclaration de confidentialité Microsoft.

Conditions générales et limitations

Où puis-je trouver les conditions générales relatives à l’utilisation des préversions alimentées par Azure OpenAI, comme Copilot ?

Pour plus d’informations, consultez nos conditions générales applicables aux préversions.

Quelle est l’utilisation prévue de Copilot ?

Vous pouvez générer des requêtes Azure Cosmos DB for NoSQL à partir de vos propres questions et invites en langage naturel dans l’Explorateur de données Azure Cosmos DB. Chaque sortie générée contient également une description en langage naturel (anglais) des opérations de requête. Durant la préversion publique, le niveau de performance et l’exactitude peuvent être limitées. Toutes les requêtes générées par Copilot doivent être évaluées et validées par un humain avant utilisation.

Comment Copilot a-t-il été évalué ? Quelles mesures sont utilisées pour évaluer les performances ?

Copilot est évalué avec des invites et des données de test sur plusieurs métriques, notamment :

  • Validité : la requête générée est une requête Azure Cosmos DB for NoSQL valide qui peut être exécutée sur le conteneur sélectionné.
  • Correction : la requête générée est une requête qui serait attendue en réponse à l’invite de l’utilisateur.
  • Exactitude : la requête générée retourne les résultats pertinents et attendus pour l’invite de l’utilisateur.

Quelles sont les limitations de Copilot ?

Copilot est une fonctionnalité qui permet aux utilisateurs d’écrire des requêtes NoSQL pour Azure Cosmos DB en fournissant des suggestions basées sur une entrée en langage naturel. Toutefois, il présente certaines limitations que les utilisateurs doivent connaître et tenter d’atténuer. Voici quelques-unes de ces limitations :

  • Limites de débit : Copilot limite le nombre de requêtes qu’un utilisateur peut exécuter. Si un utilisateur dépasse cinq appels par minute, ou huit heures d’utilisation totale par jour, il peut recevoir un message d’erreur. L’utilisateur devra ensuite attendre la fenêtre de temps suivante pour pouvoir réutiliser Copilot.
  • Exactitude limitée : Copilot est en préversion publique, ce qui signifie que les performances et l’exactitude peuvent être limitées. Toutes les requêtes générées par Copilot doivent être évaluées et validées par un humain avant utilisation.
  • Les requêtes générées peuvent ne pas être précises et fournir les résultats que l’utilisateur s’attendait à recevoir. Copilot n’est pas un système parfait, et peut parfois générer des requêtes incorrectes, incomplètes ou non pertinentes. Ces requêtes erronées peuvent être dues aux éléments suivants :
    • Ambiguïté dans l’invite en langage naturel
    • Limitations du traitement du langage naturel sous-jacent
    • Limitations des modèles de génération de requêtes sous-jacents
    • Autres problèmes
  • Les utilisateurs doivent toujours évaluer les requêtes générées par Copilot et vérifier qu’elles correspondent à leurs attentes et exigences. Les utilisateurs doivent également fournir des commentaires à l’équipe Copilot s’ils rencontrent des erreurs ou des problèmes avec les requêtes. Les utilisateurs peuvent soumettre leurs commentaires directement par le biais du mécanisme de retour d’information de l’interface Copilot.
  • Prise en charge de l’anglais uniquement : Copilot prend officiellement en charge l’anglais comme langue d’entrée et de sortie. Les utilisateurs qui souhaitent utiliser Copilot dans d’autres langues peuvent constater une dégradation de la qualité et de l’exactitude des résultats.

Copilot écrit-il des requêtes parfaites ou optimales ?

Copilot vise à fournir des réponses précises et informatives basées sur les données disponibles. Les réponses générées par Copilot sont basées sur des modèles et des probabilités dans les données linguistiques, ce qui signifie qu’elles peuvent ne pas toujours être précises. Tout le contenu généré par Copilot doit être examiné, testé et validé soigneusement par un humain.

Pour atténuer le risque de partager du contenu offensif inattendu dans les résultats et d’afficher des articles potentiellement nocifs, Copilot a plusieurs mesures en place. Malgré ces mesures, vous pouvez toujours observer des résultats inattendus. Nous travaillons constamment à améliorer notre technologie afin de résoudre les problèmes de manière proactive conformément à nos principes d’IA responsable.

Que dois-je faire si je vois des sorties inattendues ou choquantes ?

Copilot utilise des filtres de contenu personnalisés Azure OpenAI pour bloquer le langage choquant dans les invites et pour éviter de synthétiser des suggestions dans des contextes sensibles. Il s’agit d’une fonctionnalité qui aide les utilisateurs à écrire des requêtes NoSQL pour Azure Cosmos DB et à respecter nos principes en matière d’IA responsable.