Tutoriel : générer et déployer un copilote de questions et réponses avec un flux rapide dans Azure AI Studio
Important
Certaines des fonctionnalités décrites dans cet article peuvent uniquement être disponibles en préversion. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Dans ce tutoriel sur Azure AI Studio, vous utilisez l’IA générative et le flux rapide pour générer, configurer et déployer un copilote pour votre entreprise de vente au détail appelée Contoso. Votre entreprise de vente au détail se spécialise dans l’équipement de camping extérieur et les vêtements.
Le copilote doit répondre à des questions sur vos produits et services. Il doit également répondre à des questions sur vos clients. Par exemple, le copilote peut répondre à des questions telles que « Combien coûte les chaussures de randonnée TrailWalker ? » et « Combien de chaussures de randonnée TrailWalker Daniel Wilson a-t-il acheté ? ».
Les étapes de ce tutoriel sont les suivantes :
- Ajoutez vos données au terrain de jeu de conversation.
- Créez un flux rapide à partir du terrain de jeux.
- Personnaliser le flux rapide avec plusieurs sources de données.
- Évaluez le flux à l’aide d’un jeu de données d’évaluation des questions et réponses.
- Déployez le flux pour la consommation.
Prérequis
Un abonnement Azure : créez-en un gratuitement.
Accès accordé à Azure OpenAI dans l’abonnement Azure souhaité.
L’accès à ce service n’est accordé qu’à l’application. Vous pouvez demander l’accès à Azure OpenAI en complétant le formulaire à l’adresse https://aka.ms/oai/access. Ouvrez un problème sur ce dépôt pour nous contacter si vous rencontrez un problème.
Un hub AI Studio, un projet et un modèle de conversation Azure OpenAI déployé. Suivez Démarrage rapide avec les terrains de jeu AI Studio pour créer ces ressources si vous ne l’avez pas déjà fait.
Vous avez besoin d’une copie locale des données produit et client. Le dépôt Azure-Samples/aistudio-python-quickstart-sample sur GitHub contient des exemples d’informations sur les clients et les produits de vente au détail qui conviennent au scénario de ce tutoriel. Clonez le référentiel ou copiez les fichiers à partir de 1-customer-info et 3-product-infos.
Ajouter vos données et réessayer le modèle de conversation
Dans Démarrage rapide avec les terrains de jeu AI Studio (c’est un prérequis pour ce tutoriel), vous pouvez observer comment votre modèle répond sans vos données. Maintenant, vous ajoutez vos données au modèle pour lui permettre de répondre aux questions relatives à vos produits.
Pour suivre cette section, vous avez besoin d’une copie locale des données de produit. Le dépôt Azure-Samples/aistudio-python-quickstart-sample sur GitHub contient des exemples d’informations sur les clients et les produits de vente au détail qui conviennent au scénario de ce tutoriel. Clonez le dépôt ou copiez les fichiers à partir de 3-product-info.
Important
La fonctionnalité Ajouter vos données dans le terrain de jeu Azure AI Studio ne prend pas en charge l’utilisation d’un réseau virtuel ou d’un point de terminaison privé sur les ressources suivantes :
- Azure AI Search
- Azure OpenAI
- Ressource de stockage
Suivez ces étapes pour ajouter vos données au terrain de jeu de conversation afin d’aider l’assistant à répondre aux questions sur vos produits. Vous ne modifiez pas le modèle déployé lui-même. Vos données sont stockées séparément et en toute sécurité dans votre abonnement Azure.
Accédez à votre projet dans Azure AI Studio.
Sélectionnez Terrains de jeu>Conversation dans le volet de gauche.
Sélectionnez votre modèle de conversation déployé dans la liste déroulante Déploiement.
Sur le côté gauche du terrain de jeu de conversation, sélectionnez Ajouter vos données>+ Ajouter une nouvelle source de données.
Dans le menu déroulant Source de données, sélectionnez Charger les fichiers.
Sélectionnez Charger>Charger les fichiers pour parcourir vos fichiers locaux.
Sélectionnez les fichiers à charger. Sélectionnez les fichiers d’informations produit (3-product-info) que vous avez téléchargés ou créés précédemment. Ajoutez tous les fichiers maintenant. Vous ne pourrez pas ajouter plus de fichiers plus tard dans la même session de terrain de jeu.
Sélectionnez Charger pour charger le fichier dans votre compte de stockage Blob Azure. Sélectionnez ensuite Suivant.
Sélectionnez un service Recherche Azure AI. Dans cet exemple, nous sélectionnons Connecter une autre ressource Recherche Azure AI dans la liste déroulante Sélectionner le service Recherche Azure AI. Si vous n’avez pas de ressource de recherche, vous pouvez en créer une en sélectionnant Créer une ressource Recherche Azure AI. Revenez ensuite à cette étape pour vous connecter et la sélectionner.
Recherchez votre service Recherche Azure AI, puis sélectionnez Ajouter une connexion.
Pour le Nom de l’index, entrez product-info et sélectionnez Suivant.
Dans la page Paramètres de recherche sous Paramètres vectorielles, décochez la case Ajouter une recherche vectorielle à cette ressource de recherche. Ce paramètre permet de déterminer la façon dont le modèle répond aux requêtes. Sélectionnez ensuite Suivant.
Remarque
Si vous ajoutez une recherche vectorielle, d’autres options sont disponibles ici pour un coût supplémentaire.
Passez en revue vos paramètres, puis sélectionnez Créer.
Dans le terrain de jeu, vous pouvez voir que l’ingestion de vos données est en cours. Ce processus peut prendre quelques minutes. Avant de continuer, attendez de voir la source de données et le nom de l’index à la place de l’état.
Entrez un nom pour la configuration du terrain de jeu et sélectionnez Enregistrer>Enregistrer la configuration. Tous les éléments de configuration sont enregistrés par défaut. Les éléments comprennent le déploiement, le message système, les paramètres, les données ajoutées, les exemples et les variables. L’enregistrement d’une configuration portant le même nom sera enregistré sur la version précédente.
Vous pouvez maintenant converser avec le modèle qui pose la même question qu’avant (« Combien coûtent les chaussures de randonnée TrailWalker ? »), et cette fois, il utilise des informations de vos données pour construire la réponse. Vous pouvez développer le bouton références pour afficher les données utilisées.
Créez un flux rapide à partir du terrain de jeux
Maintenant, vous pouvez demander « Comment puis-je personnaliser davantage ce copilote ? » Vous pouvez ajouter plusieurs sources de données, comparer différentes invites ou les performances de plusieurs modèles. Un flux rapide sert de flux de travail exécutable qui simplifie le développement de votre application IA basée sur LLM. Il fournit une infrastructure complète pour la gestion du flux de données et du traitement au sein de votre application.
Dans cette section, vous allez apprendre à passer au flux rapide à partir du terrain de jeu. Vous exportez l’environnement de conversation de terrain de jeu, y compris les connexions aux données que vous avez ajoutées. Plus loin dans ce tutoriel, vous évaluez le flux, puis déployez le flux pour consommation.
Remarque
Les modifications apportées dans le flux rapide ne sont pas appliquées en arrière pour mettre à jour l’environnement de terrain de jeu.
Vous pouvez créer un flux rapide à partir du terrain de jeu en procédant comme suit :
Si vous n’êtes pas déjà dans le terrain de jeu Azure AI Studio, sélectionnez Générer dans le menu supérieur, puis sélectionnez Terrain de jeu dans le menu de gauche réductible.
Sélectionnez Ouvrir dans le flux rapide dans le menu situé au-dessus du volet Session de conversation.
Entrez un nom de dossier pour votre flux rapide. Sélectionnez ensuite Ouvrir. Azure AI Studio exporte l’environnement de conversation de terrain de jeu, y compris les connexions à vos données pour flux rapide.
Au sein d’un flux, les nœuds occupent le devant de la scène, représentant des outils spécifiques dotés de fonctionnalités uniques. Ces nœuds gèrent le traitement des données, l’exécution des tâches et les opérations algorithmiques, avec des entrées et des sorties. En connectant des nœuds, vous établissez une chaîne transparente d’opérations qui guide le flux de données à travers votre application. Pour plus d’informations, consultez les outils de flux rapide.
Pour faciliter la configuration des nœuds et leur ajustement, une représentation visuelle de la structure de flux de travail est fournie par le biais d’un graphique DAG (graphe orienté acyclique). Ce graphique présente la connectivité et les dépendances entre les nœuds, offrant une vue d’ensemble claire et globale du flux de travail. Les nœuds du graphique illustré ici sont représentatifs de l’expérience de conversation de terrain de jeu que vous avez exportée au flux rapide.
Avertissement
Azure AI Studio est en phase de prévisualisation et est susceptible d’être modifié. Les captures d’écran et les instructions de ce didacticiel peuvent ne pas correspondre à l’expérience actuelle.
Les nœuds peuvent être ajoutés, mis à jour, réorganisés ou supprimés. Les nœuds de votre flux à ce stade sont les suivants :
- DetermineIntent : ce nœud détermine l’intention de la requête de l’utilisateur. Il utilise l’invite système pour déterminer l’intention. Vous pouvez modifier l’invite système pour fournir des exemples spécifiques au scénario.
- ExtractIntent : ce nœud met en forme la sortie du nœud DetermineIntent et l’envoie au nœud RetrieveDocuments.
- RetrieveDocuments : ce nœud recherche les principaux documents liés à la requête. Ce nœud utilise le type de recherche et tous les paramètres que vous avez préconfigurés dans le terrain de jeu.
- FormatRetrievedDocuments : ce nœud met en forme la sortie du nœud RetrieveDocuments et l’envoie au nœud DetermineReply .
- DetermineReply : ce nœud contient une invite système étendue, qui demande au LLM de répondre à l’aide des documents récupérés uniquement. Il existe deux entrées :
- Le nœud RetrieveDocuments fournit les documents les plus récupérés.
- Le nœud FormatConversation fournit l’historique des conversations mis en forme, y compris la dernière requête.
Le nœud FormatReply formate la sortie du nœud DetermineReply.
Dans le flux rapide, vous devez également voir :
Enregistrer : vous pouvez enregistrer votre flux rapide à tout moment en sélectionnant Enregistrer dans le menu supérieur. Veillez à enregistrer régulièrement votre flux rapide lorsque vous apportez des modifications dans ce didacticiel.
Session de calcul : session de calcul que vous avez créée [plus haut dans ce didacticiel](#create-compute-and-compute session-that-are-needed-for-prompt-flow). Vous pouvez démarrer et arrêter des sessions de calcul et des instances de calcul via les paramètres Project dans le menu de gauche. Pour travailler dans le flux d’invite, assurez-vous que votre session de calcul se trouve dans l’état En cours d’exécution.
Outils : vous pouvez revenir au flux rapide à tout moment en sélectionnant flux rapide dans Outils dans le menu de gauche. Sélectionnez ensuite le dossier de flux rapide que vous avez créé précédemment (et non l’exemple de flux).
Personnaliser le flux rapide avec plusieurs sources de données
Plus tôt dans le terrain de jeu Azure AI Studio, vous avez ajouté vos données pour créer un index de recherche contenant des données de produit pour le copilote Contoso. Jusqu’à présent, les utilisateurs pouvaient seulement se renseigner sur les produits avec des questions telles que « Combien coûtent les chaussures de randonnée TrailWalker ? ». Mais ils ne peuvent pas obtenir des réponses à des questions telles que « Combien de chaussures de randonnée TrailWalker Daniel Wilson a-t-il acheté ? » Pour activer ce scénario, nous ajoutons un autre index avec des informations client au flux.
Créer l’index d’informations client
Vous avez besoin d’une copie locale d’exemples d’informations client. Pour plus d’informations et des liens vers des exemples de données, consultez les conditions préalables.
Suivez ces instructions pour créer un index :
Sélectionnez Index dans le menu de gauche. Sélectionnez ensuite + Nouvel index.
Vous accédez à l’Assistant Créer un index .
Dans la page Données sources, sélectionnez Charger des fichiers dans la liste déroulante Source de données. Sélectionnez ensuite Charger>Charger les fichiers pour parcourir vos fichiers locaux.
Sélectionnez les fichiers d’informations client que vous avez téléchargés ou créés précédemment. Consultez les prérequis. Sélectionnez ensuite Suivant.
Sélectionnez la même connexion de service Recherche Azure AI (contosooutdooraisearch) que vous avez utilisée pour votre index d’informations sur le produit. Sélectionnez ensuite Suivant.
Entrez customer-info pour le nom de l’index.
Sélectionnez une machine virtuelle pour exécuter des travaux d’indexation. L’option par défaut est Sélection automatique. Sélectionnez ensuite Suivant.
Dans la page Paramètres de recherche sous Paramètres vectorielles, décochez la case Ajouter une recherche vectorielle à cette ressource de recherche. Ce paramètre permet de déterminer la façon dont le modèle répond aux requêtes. Sélectionnez ensuite Suivant.
Remarque
Si vous ajoutez une recherche vectorielle, d’autres options sont disponibles ici pour un coût supplémentaire.
Passez en revue les détails que vous avez entrés, puis sélectionnez Créer.
Remarque
Vous utilisez l’index customer-info et la connexion contosooutdooraisearch dans votre service Recherche Azure AI dans le flux d’invite plus loin dans ce tutoriel. Si les noms que vous entrez diffèrent de ce qui est spécifié ici, veillez à utiliser les noms que vous avez entrés dans le reste du tutoriel.
Vous accéderez à la page de détails de l’index dans laquelle vous pourrez voir l’état de votre création d’index.
Pour plus d’informations sur la création d’un index, consultez Créer un index.
Créer des sessions de calcul nécessaires pour le flux d’invite
Vous utilisez le flux rapide pour optimiser les messages envoyés au modèle de conversation du copilote. Le flux d’invite nécessite une instance de calcul et une session de calcul. Pour créer une instance de calcul et une session de calcul, suivez les étapes décrites dans Comment créer une session de calcul.
Pour suivre le reste du tutoriel, assurez-vous que votre session de calcul se trouve dans l’état Exécution. Vous devrez peut-être sélectionner Actualiser pour mettre à jour le statut.
Important
Vous êtes facturé pour les instances de calcul pendant leur exécution. Pour éviter d’entraîner des coûts Azure inutiles, suspendez l’instance de calcul lorsque vous ne travaillez pas activement dans le flux rapide. Pour plus d’informations, consultez Comment démarrer et arrêter le calcul.
Ajouter des informations client au flux
Avertissement
Azure AI Studio est en phase de prévisualisation et est susceptible d’être modifié. Les captures d’écran et les instructions de ce didacticiel peuvent ne pas correspondre à l’expérience actuelle.
Une fois que vous avez créé votre index, revenez à votre flux rapide et procédez comme suit pour ajouter les informations client au flux :
Sélectionnez le nœud RetrieveDocuments dans le graphique et renommez-le RetrieveProductInfo. À présent, le nœud d’informations sur le produit de récupération peut être distingué du nœud d’informations client que vous ajoutez au flux.
Sélectionnez + Python dans le menu supérieur pour créer un nœud Python utilisé pour récupérer les informations client.
Nommez le nœud RetrieveCustomerInfo, puis sélectionnez Ajouter.
Copiez et collez le code Python à partir du nœud RetrieveProductInfo dans le nœud RetrieveCustomerInfo pour remplacer tout le code par défaut.
Sélectionnez le bouton Valider et analyser l’entrée pour valider les entrées du nœud RetrieveCustomerInfo. Si les entrées sont valides, le flux rapide analyse les entrées et crée les variables nécessaires à utiliser dans votre code.
Modifiez les entrées RetrieveCustomerInfo que le flux rapide a analysées pour vous afin qu’elles puissent se connecter à votre index customer-info.
Remarque
Le graphique est mis à jour immédiatement après avoir défini la valeur d’entrée des requêtes sur ExtractIntent.output.search_intents. Dans le graphique, vous pouvez voir que RetrieveCustomerInfo obtient des entrées de ExtractIntent.
Les entrées respectent la casse. Assurez-vous qu’elles correspondent exactement à ces valeurs :
Nom Type Valeur embeddingModelConnection Azure OpenAI Default_AzureOpenAI embeddingModelName string Aucun indexName string customer-info queries string ${ExtractIntent.output.search_intents} queryType string simple searchConnection Recherche Azure AI contosooutdooraisearch semanticConfiguration string Aucun topK int 5 Sélectionnez Enregistrer dans le menu supérieur pour enregistrer vos modifications.
Formatez les documents récupérés en sortie
Avertissement
Azure AI Studio est en phase de prévisualisation et est susceptible d’être modifié. Les captures d’écran et les instructions de ce didacticiel peuvent ne pas correspondre à l’expérience actuelle.
Maintenant que vous disposez des informations sur le produit et le client dans votre flux rapide, vous mettez en forme les documents récupérés afin que le modèle de langage volumineux puisse les utiliser.
Sélectionnez le nœud FormatRetrievedDocuments dans le graphique.
Copiez et collez le code Python suivant pour remplacer tout le contenu dans le bloc de code FormatRetrievedDocuments.
from promptflow import tool @tool def format_retrieved_documents(docs1: object, docs2: object, maxTokens: int) -> str: formattedDocs = [] strResult = "" docs = [val for pair in zip(docs1, docs2) for val in pair] for index, doc in enumerate(docs): formattedDocs.append({ f"[doc{index}]": { "title": doc['title'], "content": doc['content'] } }) formattedResult = { "retrieved_documents": formattedDocs } nextStrResult = str(formattedResult) if (estimate_tokens(nextStrResult) > maxTokens): break strResult = nextStrResult return { "combined_docs": docs, "strResult": strResult } def estimate_tokens(text: str) -> int: return (len(text) + 2) / 3
Sélectionnez le bouton Valider et analyser l’entrée pour valider les entrées du nœud FormatRetrievedDocuments. Si les entrées sont valides, le flux rapide analyse les entrées et crée les variables nécessaires à utiliser dans votre code.
Modifiez les entrées FormatRetrievedDocuments que le flux rapide analysé pour vous afin qu’il puisse extraire les informations du produit et du client à partir des nœuds RetrieveProductInfo et RetrieveCustomerInfo.
Les entrées respectent la casse. Assurez-vous qu’elles correspondent exactement à ces valeurs :
Nom Type Valeur docs1 object ${RetrieveProductInfo.output} docs2 object ${RetrieveCustomerInfo.output} maxTokens int 5000 Sélectionnez le nœud DetermineReply à partir du graphique.
Définissez l’entrée de documentation sur ${FormatRetrievedDocuments.output.strResult}.
Sélectionnez le nœud de sorties dans le graphique.
Définissez l’entrée fetched_docs sur ${FormatRetrievedDocuments.output.combined_docs}.
Sélectionnez Enregistrer dans le menu supérieur pour enregistrer vos modifications.
Discuter dans le flux rapide avec des informations sur le produit et le client
À présent, vous disposez à la fois des informations sur le produit et le client dans le flux rapide. Vous pouvez discuter avec le modèle en flux rapide et obtenir des réponses aux questions telles que « Combien de chaussures de randonnée TrailWalker Daniel Wilson a-t-il acheté ? » Avant de passer à une évaluation plus formelle, vous pouvez éventuellement discuter avec le modèle pour voir comment il répond à vos questions.
Sélectionnez Conversation dans le menu supérieur dans le flux rapide pour essayer la conversation.
Entrez « Combien de chaussures de randonnée TrailWalker Daniel Wilson a-t-il acheté ? », puis sélectionnez l’icône de flèche droite pour envoyer.
La réponse est ce que vous attendez. Le modèle utilise les informations client pour répondre à la question.
Évaluez le flux à l’aide d’un jeu de données d’évaluation des questions et réponse
Dans Azure AI Studio, vous souhaitez évaluer le flux avant de déployer le flux pour consommation.
Dans cette section, vous utilisez l’évaluation intégrée pour évaluer votre flux avec un jeu de données d’évaluation de questions et réponses. L’évaluation intégrée utilise des métriques assistées par l’IA pour évaluer votre flux : niveau de base, pertinence et score de récupération. Pour plus d’informations, consultez les métriques d’évaluation intégrées.
Créer une évaluation
Vous avez besoin d’un jeu de données d’évaluation de questions et réponses qui contient des questions et réponses pertinentes pour votre scénario. Créez un fichier nommé localement qa-evaluation.jsonl. Copiez et collez les questions et réponses suivantes ("truth"
) dans le fichier.
{"question": "What color is the CozyNights Sleeping Bag?", "truth": "Red", "chat_history": [], }
{"question": "When did Daniel Wilson order the BaseCamp Folding Table?", "truth": "May 7th, 2023", "chat_history": [] }
{"question": "How much does TrailWalker Hiking Shoes cost? ", "truth": "$110", "chat_history": [] }
{"question": "What kind of tent did Sarah Lee buy?", "truth": "SkyView 2 person tent", "chat_history": [] }
{"question": "What is Melissa Davis's phone number?", "truth": "555-333-4444", "chat_history": [] }
{"question": "What is the proper care for trailwalker hiking shoes?", "truth": "After each use, remove any dirt or debris by brushing or wiping the shoes with a damp cloth.", "chat_history": [] }
{"question": "Does TrailMaster Tent come with a warranty?", "truth": "2 years", "chat_history": [] }
{"question": "How much did David Kim spend on the TrailLite Daypack?", "truth": "$240", "chat_history": [] }
{"question": "What items did Amanda Perez purchase?", "truth": "TrailMaster X4 Tent, TrekReady Hiking Boots (quantity 3), CozyNights Sleeping Bag, TrailBlaze Hiking Pants, RainGuard Hiking Jacket, and CompactCook Camping Stove", "chat_history": [] }
{"question": "What is the Brand for TrekReady Hiking Boots", "truth": "TrekReady", "chat_history": [] }
{"question": "How many items did Karen Williams buy?", "truth": "three items of the Summit Breeze Jacket", "chat_history": [] }
{"question": "France is in Europe", "truth": "Sorry, I can only truth questions related to outdoor/camping gear and equipment", "chat_history": [] }
Maintenant que vous disposez de votre jeu de données d’évaluation, vous pouvez évaluer votre flux en procédant comme suit :
Sélectionnez Évaluer>Évaluation intégrée dans le menu supérieur du flux rapide.
Vous accédez à l’assistant Créer une nouvelle évaluation .
Entrez un nom pour votre évaluation et sélectionnez une session de calcul.
Sélectionnez Paires questions-réponses avec des générations augmentées par récupération dans les options de scénario.
Sélectionnez le flux à évaluer. Dans cet exemple, sélectionnez flux extérieur Contoso ou le nom que vous avez donné à votre flux. Ensuite, cliquez sur Suivant.
Sélectionnez les métriques que vous souhaitez utiliser pour évaluer votre flux. Dans cet exemple, sélectionnez Fondement, Pertinenceet Score de récupération.
Sélectionnez un modèle à utiliser pour l’évaluation. Dans cet exemple, sélectionnez gpt-35-turbo-16k. Sélectionnez ensuite Suivant.
Remarque
L’évaluation avec des métriques assistées par IA doit appeler un autre modèle GPT pour effectuer le calcul. Pour des performances optimales, utilisez un modèle qui prend en charge au moins 16 000 jetons (tels que gpt-4-32k ou gpt-35-turbo-16k). Si vous n’avez pas déployé ce modèle précédemment, vous pouvez déployer un autre modèle en suivant les étapes décrites dans le Guide de démarrage rapide du terrain de jeu de conversation AI Studio. Revenez ensuite à cette étape et sélectionnez le modèle que vous avez déployé.
Sélectionnez Ajouter un nouveau jeu de données. Sélectionnez ensuite Suivant.
Sélectionnez Charger des fichiers, parcourez les fichiers, puis sélectionnez le fichier qa-evaluation.jsonl que vous avez créé précédemment.
Une fois le fichier chargé, vous devez mapper les propriétés du fichier (source de données) aux propriétés d’évaluation. Entrez les valeurs suivantes pour chaque propriété de source de données :
Nom Description Type Source de données chat_history L’historique des conversations list ${data.chat_history} query La requête string ${data.question} question Requête recherchant des informations spécifiques string ${data.question} answer Réponse à la question générée par le modèle comme réponse string ${run.outputs.reply} documents Chaîne avec contexte à partir de documents récupérés string ${run.outputs.fetched_docs} Cliquez sur Suivant.
Passez en revue les détails de l’évaluation, puis sélectionnez Envoyer.
Vous accédez à la page Évaluations des métriques.
Afficher l’état et les résultats de l’évaluation
Vous pouvez maintenant afficher l’état et les résultats de l’évaluation en procédant comme suit :
Une fois que vous créez une évaluation, si vous n’y êtes pas encore, accédez à Générer>Évaluation. Dans la page Évaluations des métriques, vous pouvez voir l’état de l’évaluation et les métriques que vous avez sélectionnées. Vous devrez peut-être sélectionner Actualiser après quelques minutes pour voir l’état Terminé .
Conseil
Une fois que l’évaluation affiche l’état Terminé, vous n’avez pas besoin de session de calcul ni de calcul pour suivre le reste de ce tutoriel. Vous pouvez arrêter votre instance de calcul pour éviter d’entraîner des coûts Azure inutiles. Pour plus d’informations, consultez Comment démarrer et arrêter le calcul.
Sélectionnez le nom de l’évaluation qui s’est terminée en premier (contoso-evaluate-from-flow_variant_0) pour afficher les détails de l’évaluation avec les colonnes que vous avez mappées précédemment.
Sélectionnez le nom de l’évaluation qui a terminé la deuxième (evaluation_contoso-evaluate-from-flow_variant_0) pour afficher les métriques d’évaluation : Fondement, Pertinenceet Score de récupération.
Pour plus d’informations, consultez Afficher les résultats d’évaluation.
Déployer le flux
Maintenant que vous avez créé un flux et terminé une évaluation basée sur des métriques, il est temps de créer votre point de terminaison en ligne pour l’inférence en temps réel. Cela signifie que vous pouvez utiliser le flux déployé pour répondre aux questions en temps réel.
Suivez ces étapes pour déployer un flux rapide en tant que point de terminaison en ligne à partir de Azure AI Studio.
Préparez un flux d’invite au déploiement. Si vous n’en avez pas, consultez Guide pratique pour créer un flux d’invite.
Facultatif : sélectionnez Conversation pour tester si le flux fonctionne correctement. Tester le flux avant le déploiement est une bonne pratique que nous recommandons.
Sélectionnez Déployer dans l’éditeur de flux.
Indiquez les informations demandées dans la page Paramètres de base de l’Assistant Déploiement.
Sélectionnez Suivant pour passer aux pages de paramètres avancés.
Dans la page Paramètres avancés - Point de terminaison, conservez les paramètres par défaut et sélectionnez Suivant.
Dans la page Paramètres avancés - Déploiement, conservez les paramètres par défaut et sélectionnez Suivant.
Dans la page Paramètres avancés – Sorties et connexions, vérifiez que toutes les sorties sont sélectionnées sous Inclus dans la réponse du point de terminaison.
Sélectionnez Vérifier + créer pour passer en revue les paramètres et créer le déploiement.
Sélectionnez Créer pour déployer le flux d’invite.
Pour plus d’informations, consultez Comment déployer un flux.
Utiliser le flux déployé
Votre application copilote peut utiliser le flux d’invite déployé pour répondre aux questions en temps réel. Vous pouvez utiliser le point de terminaison REST ou le Kit de développement logiciel (SDK) pour utiliser le flux déployé.
Pour afficher l’état de votre déploiement dans Azure AI Studio, sélectionnez Déploiements dans le volet de navigation gauche. Une fois le déploiement correctement créé, vous pouvez le sélectionner pour voir les détails.
Remarque
Si vous voyez un message indiquant « Actuellement ce point de terminaison n’a aucun déploiement » ou que l'état est toujours sur Mise à jour en cours, vous devrez peut-être sélectionner Actualiser après quelques minutes pour voir le déploiement.
Si vous le souhaitez, la page de détails vous permet de modifier le type d’authentification ou d’activer la surveillance.
Sélectionnez l’onglet Consommer. Vous pouvez voir des exemples de code et le point de terminaison REST de votre application copilote pour utiliser le flux déployé.
Nettoyer les ressources
Pour éviter la facturation de coûts Azure inutiles, vous devez supprimer les ressources créées dans ce tutoriel si elles ne sont plus nécessaires. Pour gérer les ressources, vous pouvez utiliser le Portail Microsoft Azure.
Vous pouvez également arrêter ou supprimer votre instance de calcul dans Azure AI Studio si nécessaire.
Démonstration de la solution de conversation instantanée d’entreprise Azure AI Studio
Découvrez comment créer un copilote de vente au détail à l’aide de vos données avec Azure AI Studio dans cette vidéo de la procédure pas à pas.
Étapes suivantes
- En savoir plus sur le flux rapide.
- Déployer une application web de conversation d’entreprise.