Utiliser des points de terminaison d’API serverless à partir d’un espace de travail différent
Dans cet article, vous allez apprendre à configurer un point de terminaison d’API serverless existant dans un espace de travail différent de celui où il a été déployé.
Certains modèles du catalogue de modèles peuvent être déployés en tant qu’API serverless. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin. Cette option de déploiement ne nécessite pas de quota à partir de votre abonnement.
Vous pouvez avoir besoin d’utiliser un point de terminaison d’API serverless existant dans un espace de travail différent de celui qui a servi à créer le déploiement, notamment dans les situations suivantes :
- Vous souhaitez centraliser vos déploiements dans un espace de travail donné et les utiliser à partir d’espaces de travail différents au sein de votre organisation.
- Vous devez déployer un modèle dans un espace de travail situé dans une région Azure déterminée où le déploiement serverless est possible pour ce modèle. Cependant, vous avez besoin de l’utiliser dans une autre région, où le déploiement serverless n’est pas possible pour le modèle en question.
Prérequis
Un abonnement Azure avec un moyen de paiement valide. Les abonnements Azure gratuits ou d’essai ne fonctionnent pas. Si vous ne disposez pas d’un abonnement Azure, commencez par créer un compte Azure payant.
Un espace de travail Azure Machine Learning où vous souhaitez utiliser le déploiement existant.
Un modèle déployé sur un point de terminaison d’API serverless. Cet article suppose que vous avez précédemment déployé le modèle Meta-Llama-3-8B-Instruct. Pour savoir comment déployer ce modèle en tant qu’API serverless, consultez Déployer des modèles en tant qu’API serverless.
Vous devez installer les logiciels suivants pour utiliser Azure Machine Learning :
Vous pouvez utiliser n’importe quel navigateur web compatible pour naviguer dans Azure Machine Learning studio.
Créer une connexion de point de terminaison d’API
Pour créer une connexion, effectuez les étapes suivantes :
Connectez-vous à l’espace de travail où le point de terminaison est déployé :
Accédez à Azure Machine Learning studio puis à l’espace de travail où le point de terminaison auquel vous souhaitez vous connecter est déployé.
Obtenez l’URL et les informations d’identification du point de terminaison auquel vous souhaitez vous connecter. Dans cet exemple, vous obtenez les détails d’un point de terminaison nommé meta-llama3-8b-qwerty.
Sélectionnez Points de terminaison dans la barre latérale gauche.
Sélectionnez l’onglet Points de terminaison serverless pour afficher les points de terminaison d’API serverless.
Sélectionnez le point de terminaison auquel vous souhaitez vous connecter.
Sous l’onglet Détails du point de terminaison, copiez les valeurs de URI cible et Clé.
À présent, connectez-vous à l’espace de travail où vous souhaitez créer la connexion et utiliser le point de terminaison.
Créez la connexion dans l’espace de travail :
Accédez à l’espace de travail où la connexion doit être créée.
Accédez à la section Gérer dans la barre de navigation gauche, puis sélectionnez Connexions.
Sélectionnez Créer.
Sélectionnez Modèle serverless.
Pour l’URI cible, collez la valeur que vous avez copiée précédemment.
Pour laclé, collez la valeur que vous avez copiée précédemment.
Donnez un nom à la connexion, dans ce cas meta-llama3-8b-connection.
Sélectionnez Ajouter une connexion.
À ce stade, la connexion est disponible pour la consommation.
Pour vérifier que la connexion fonctionne :
À partir de la barre de navigation gauche d’Azure Machine Learning studio, accédez à Création>Flux d’invite.
Sélectionnez Créer pour créer un flux.
Sélectionnez Créer dans la zone flux de conversation.
Donnez un nom à votre Flux d’invite, puis sélectionnez Créer.
Sélectionnez le nœud de conversation dans le graphique pour accéder à la section conversation.
Pour vous connecter, ouvrez la liste déroulante pour sélectionner la connexion que vous venez de créer, dans ce cas meta-llama3-8b-connection.
Sélectionnez Démarrer la session de calcul dans la barre de navigation supérieure pour démarrer un runtime automatique de flux d’invite.
Sélectionnez l’option conversation. Vous pouvez maintenant envoyer des messages et recevoir des réponses.