Partager via


FAQ pour les fonctionnalités de génération de texte et d’invites

Ces questions fréquentes (FAQ) décrivent l’impact de l’IA sur la fonctionnalité d’invites d’AI Builder.

En quoi consistent les invites ?

La fonctionnalité d’invites dans AI Builder offre aux utilisateurs une fonctionnalité polyvalente pour développer des workflows basés sur l’IA, des applications, la transformation de données et la personnalisation de copilotes. Elle permet la création de flux de travail et d’applications qui résument des documents, créent des brouillons de réponses, classent du texte et traduisent des langues. Cette fonctionnalité est optimisée par Azure OpenAI Service, qui utilise la technologie GPT (Generative Pre-trained Transformer). Ces modèles ont été formés sur de grandes quantités de données textuelles, ce qui leur permet de générer du texte qui ressemble au contenu écrit par un humain. Pour en savoir plus sur Azure OpenAI Service, accédez à Note de transparence pour Azure OpenAI Service.

Quels sont les cas d’utilisation prévus des invites ?

Les invites dans AI Builder vous permettent de créer des applications et des workflows intelligents et d’étendre les copilotes. Elles exploitent les fonctionnalités des modèles GPT préformés, ce qui élimine la nécessité d’une formation personnalisée des modèles. Par exemple, l’intention peut être de créer un workflow qui résume les réclamations entrantes des clients. Ensuite, il crée un ticket dans un outil de gestion des incidents en fonction de la catégorie de la réclamation entrante. Dans cet exemple, les créateurs peuvent simplement demander au modèle de catégoriser et de résumer la réclamation entrante pour créer un nouvel incident.

La liste suivante contient les cas d’utilisation les plus courants pour ce service :

  • Résumé des e-mails, conversations, transcriptions, documents, etc.
  • Suggestions de brouillons de réponses aux requêtes, réclamations, e-mails des clients, etc.
  • Extraction d’informations des contrats, e-mails, factures, commandes, etc.
  • Classification du contenu dans les catégories souhaitées (par exemple, si un e-mail est une commande, une réclamation ou un retour).
  • Analyse de sentiment d’un texte donné (par exemple, identification du sentiment d’une évaluation de produit).

Dans tous ces cas, les utilisateurs sont responsables du résultat final du système. Ils doivent examiner le contenu généré pour détecter toute inexactitude ou omission potentielle avant de l’utiliser.

Comment la préparation de la fonctionnalité d’invites a-t-il été évaluée ? Quelles mesures sont utilisées pour évaluer les performances ?

L’évaluation de cette fonctionnalité implique des tests complets sur une série de paramètres de sécurité. Cela garantit que la fonctionnalité est conforme aux normes et principes de l’IA responsable de notre organisation. Le service est également évalué en continu pour détecter des vulnérabilités potentielles. Les mesures de performance que nous utilisons concernent principalement l’efficacité du filtrage du contenu et le degré d’accord entre l’humain et la machine sur le contenu filtré par rapport au contenu non filtré.

Quel type de modération de contenu est implémenté pour les invites ?

Les modèles GPT sont formés sur des données Internet, ce qui est idéal pour créer un modèle mondial général. Dans le même temps, il peut hériter du contenu toxique, nuisible et biaisé des mêmes sources. Les modèles sont formés pour se comporter de manière sécurisée et ne pas produire de contenu nuisible, mais cela peut parfois générer une sortie toxique. Les invites AI Builder exploitent le service Sécurité du contenu Azure AI pour intégrer des fonctionnalités de modération de contenu de pointe au sein des invites IA. Cela inclut des services pour analyser la sortie générée avec des scanners de texte à gravité multiple et la sécurité contre les attaques par injection d’invites. La sortie est également analysée pour détecter toute régurgitation de documents protégés.

Quelles sont les limitations de la fonctionnalité d’invites ? Comment les utilisateurs peuvent-ils réduire l’impact des limitations d’invites lors de l’utilisation du système ?

L’utilisation de cette technologie doit être conforme aux exigences du Code de conduite pour Azure OpenAI Service. Cette technologie ne doit pas être utilisée pour générer du contenu associé à la propagande politique, à l’incitation à la haine, à la désinformation, à l’autodestruction, à la discrimination, au matériel sexuel explicite ou à tout autre contenu interdit par le Code de conduite. Les applications non prises en charge de cette technologie comprennent la fourniture de conseils, l’utilisation à des fins juridiques, financières ou liées à la santé ou les prédictions futures, ainsi que les calculs financiers, scientifiques ou mathématiques et toute autre utilisation non prise en charge mentionnée dans la Note de transparence pour Azure OpenAI Service. Actuellement, le service est exclusivement pris en charge aux États-Unis et n’est disponible qu’en anglais.

Le contenu généré par l’IA peut contenir des erreurs ; par conséquent, les créateurs doivent informer les utilisateurs finaux de leur solution que la génération de contenu par ce modèle est créée par l’IA de manière transparente. Une communication claire du contenu généré par l’IA aide à éviter un excès de confiance. Les créateurs doivent également inclure la possibilité d’une étape de révision humaine pour s’assurer que le contenu généré par l’IA est exact et approprié avant de l’utiliser.

Quels facteurs et paramètres opérationnels permettent une utilisation efficace et responsable du système ?

Le contenu généré par le modèle d’IA est de nature probabiliste et, par conséquent, les réponses du modèle peuvent varier pour la même invite. La réponse générée peut être incorrecte ou trompeuse et peut entraîner des résultats inattendus du flux ou de l’application. Par exemple, les clients professionnels peuvent recevoir des informations, des recommandations ou un support erronés ou incorrects. Les créateurs doivent mettre en place une surveillance humaine significative au sein de leurs flux et applications, ainsi que tester leurs invites qui sont susceptibles de générer des comportements nuisibles ou des contenus interdits, comme indiqué dans le Code de conduite de Microsoft. Les développeurs low-code doivent également être transparents sur l’utilisation de l’IA dans leurs applications et leurs flux pour informer l’utilisateur métier, en indiquant que le contenu est généré par l’IA. De plus, les réponses générées peuvent ne pas correspondre aux attentes du développeur low code en raison de restrictions de longueur, du filtrage du contenu ou de la sélection de modèle.

Comment s’appelle le modèle GPT, où est-il hébergé et comment puis-je y accéder ?

Le modèle GPT-3.5 Turbo est hébergé sur Azure OpenAI Service. Pour y accéder, vous pouvez utiliser les API REST Azure OpenAI Service, le SDK Python ou l’interface web dans Azure OpenAI Studio.

Pour en savoir plus, consultez Quelles sont les nouveautés de Azure OpenAI Service ?

Mes données sont-elles utilisées pour former ou améliorer les grands modèles linguistiques disponibles sur AI Builder ?

AI Builder les invites s’exécutent sur le service Azure hébergé par Microsoft. OpenAI Les données client ne sont pas utilisées pour former ou améliorer l’un des modèles de base du service Azure. OpenAI Microsoft ne partage pas vos données client avec un tiers, sauf si vous lui avez accordé l’autorisation de le faire. Ni les invites client (entrée) avec leurs données de base ni les réponses du modèle (sortie) ne sont utilisées pour former ou améliorer les modèles de base Azure OpenAI Service.

Le contenu ajouté à l’action « Créer du texte avec GPT à l’aide d’une invite » est-il accessible au public ?

L’onglet À propos de de l’action indique, Cette action fournit l’accès à vos invites en exploitant le modèle GPT qui s’exécute sur Azure OpenAI Service.

Les invites que vous ajoutez à l’action Créer du texte avec GPT à l’aide d’une invite dans Power Automate sont privées par défaut. Elles sont uniquement visibles et utilisables au sein de votre organisation et ne sont pas accessibles au monde. Les invites sont privées et destinées à un usage interne dans votre entreprise.

Les invites nouvellement créées sont privées par défaut. Cela signifie qu’elles sont visibles et utilisables dans Power Automate, Power Apps et Microsoft Copilot Studio uniquement par la personne qui les a créées. Cela donne au créateur le temps de les tester et de les évaluer dans des applications ou des flux de travail et de garantir leur exactitude avant de les partager.

Si vous souhaitez que d’autres utilisateurs de l’environnement ou groupes utilisent votre invite dans Power Apps ou Power Automate, vous devez la partager.

Pour en savoir plus, accédez à Partager votre invite.

En quoi consistent les invites personnalisées et les fonctions d’IA ?

Invites personnalisées

Les Invites personnalisées donnent aux créateurs la liberté de demander au grand modèle de langage (LLM) de se comporter d’une certaine manière ou d’effectuer une tâche spécifique. En élaborant soigneusement une invite, vous pouvez générer des réponses adaptées aux besoins spécifiques de votre entreprise. Cela transforme le modèle LLM en un outil flexible pour accomplir diverses tâches.

Exemple

Avec un modèle de langage, une invite personnalisée peut guider le modèle pour répondre à une question, compléter un texte, traduire des langues, résumer un document et identifier des tâches, des liste de tâches et des éléments d’action dans le texte. La complexité d’une invite personnalisée peut aller d’une simple phrase à quelque chose de plus complexe, selon la tâche.

Fonctions d’IA

Les fonctions d’IA prédéfinies sont des invites préconfigurées créées par l’équipe Microsoft pour aider les créateurs à accomplir facilement des tâches courantes. Elles offrent des fonctionnalités d’IA prêtes à l’emploi dans divers cas d’utilisation, ce qui simplifie l’expérience des créateurs pour intégrer l’intelligence dans leurs solutions.

Exemple

L’invite prédéfinie d’un modèle de langage pourrait ressembler à ceci :

Extrayez sous forme de liste numérotée les points d’action de : [TextToExtract]

Dans ce cas, l’utilisateur doit simplement fournir le texte dans [TextToExtract] à partir duquel il souhaite extraire les points d’action. L’invite prédéfinie s’occupe du reste.