Partager via


FAQ sur l’expérience de création d’agents conversationnels

Ces questions fréquemment posées décrivent l’impact de l’IA sur l’expérience de création de l’agent conversationnel dans Copilot Studio.

Qu’est-ce que l’expérience de création d’agents conversationnels ?

L’expérience de création d’agents conversationnels est utilisée pour vous aider à créer un agent personnalisé ou un assistant Copilot. Par le biais de la conversation, il prédit le nom, la description et les instructions de l’agent, il prend en charge l’ajout de sources de connaissances et génère des invites suggérées (pour les agents Copilot).

Quelles sont les fonctionnalités de l’expérience de création d’agent conversationnel ?

Vous pouvez commencer rapidement avec une configuration d’agent personnalisé ou d’agent Copilot via une interface en langage naturel. Le système met à jour la configuration en fonction de votre entrée pendant la conversation.

Quelle est l’utilisation prévue de l’expérience de création d’agents conversationnels ?

Vous pouvez utiliser cette expérience pour commencer votre configuration initiale de l’agent.

Comment l’expérience de création d’agents conversationnels a-t-elle été évaluée et quels indicateurs sont utilisés pour mesurer les performances ?

Nous avons évalué l’exactitude du système quant à la façon dont la configuration prédite représentait les demandes tout au long de la conversation afin d’en garantir la qualité. Nous avons également testé pour s’assurer que le système ne produit pas de contenu dangereux ou malveillant.

Quelles sont les limites de l’expérience de création d’agents conversationnels et comment les utilisateurs peuvent-ils minimiser l’impact des limitations lors de son utilisation ?

  • L’expérience de création d’agents conversationnels ne prend en charge que certaines langues. Vous pouvez peut-être utiliser d’autres langues, mais les réponses générées peuvent être incohérentes ou inattendues.

  • Cette expérience ne peut être utilisée que pour configurer :

    • Nom
    • Description
    • Instructions de création de l’agent
    • Sous-ensemble des types de sources de connaissances pris en charge
    • Invites suggérées pour les agents Copilot
  • Consultez la FAQ sur l’IA responsable pour les réponses dégénératives pour d’autres considérations et limitations lors de l’utilisation de réponses génératives dans les agents que vous créez avec cette fonctionnalité.

Quels sont les facteurs et paramètres opérationnels qui permettent une utilisation efficace et responsable de l’expérience de création d’agents conversationnels ?

Vous pouvez utiliser le langage naturel pour converser avec le système via la conversation, ou vous pouvez modifier directement la configuration manuellement. Si vous modifiez manuellement, le système peut mettre à jour la configuration de votre agent avec des informations supplémentaires lors de la poursuite de la conversation.

Quelles protections sont mises en place dans Copilot Studio pour une IA responsable ?

Les réponses génératives incluent diverses protections pour garantir que les administrateurs, les créateurs et les utilisateurs bénéficient d’une expérience sûre et conforme. Les administrateurs ont un contrôle total sur les fonctionnalités de leur client et peuvent toujours désactiver la possibilité de publier des agents avec des réponses génératives dans votre organisation. Les créateurs peuvent ajouter des instructions personnalisées pour influencer les types de réponses renvoyées par leurs agents. Pour plus d’informations sur les meilleures pratiques de rédaction d’instructions personnalisées, consultez Utiliser la modification d’invite pour fournir des instructions personnalisées à votre agent.

Les créateurs peuvent également limiter les sources de connaissances que les agents peuvent utiliser pour répondre aux questions. Pour permettre aux agents de répondre à des questions en dehors du cadre de leurs sources de connaissances configurées, les créateurs peuvent activer la fonctionnalité Connaissance générale de l’IA. Pour limiter les agents à répondre uniquement aux questions dans le cadre de leurs sources de connaissances configurées, les créateurs doivent désactiver cette fonctionnalité.

Copilot Studio applique également des stratégies de modération du contenu sur toutes les requêtes de l’IA génératrice afin de protéger les administrateurs, les créateurs et les utilisateurs contre les contenus offensants ou nuisibles. Ces stratégies de modération du contenu s’étendent également aux tentatives malveillantes de jailbreaking, à l’injection de commandes, à l’exfiltration de données et à la violation des droits d’auteur. Tout le contenu est vérifié deux fois : d’abord lors de la saisie de l’utilisateur, puis à nouveau lorsque l’agent est sur le point de répondre. Si le système détecte du contenu nuisible, offensant ou malveillant, il empêche votre agent de répondre.

Enfin, il est recommandé de communiquer aux utilisateurs que l’agent utilise l’intelligence artificielle ; par conséquent, le message par défaut suivant informe les utilisateurs : « Juste pour que vous le sachiez, j’utilise parfois l’IA pour répondre à vos questions. »