Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Les éléments marqués (aperçu) dans cet article sont actuellement en aperçu public. Cette version préliminaire est fournie sans contrat de niveau de service, et nous la déconseillons pour les charges de travail en production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’utilisation supplémentaires pour les préversions de Microsoft Azure.
Dans cet article, vous allez apprendre à déployer un modèle Azure AI Foundry en tant que déploiement d’API serverless. Certains modèles du catalogue de modèles peuvent être déployés en tant que déploiement d’API serverless. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin. Cette option de déploiement ne nécessite pas de quota à partir de votre abonnement.
Bien que le déploiement d’API serverless soit une option pour déployer des modèles Azure AI Foundry, nous vous recommandons de déployer des modèles Foundry sur des ressources Azure AI Foundry.
Remarque
Nous vous recommandons de déployer des modèles Azure AI Foundry sur des ressources Azure AI Foundry afin de pouvoir consommer vos déploiements dans la ressource via un seul point de terminaison avec la même authentification et le même schéma pour générer l’inférence. Le point de terminaison suit l'API d'inférence du modèle d'Azure AI, que tous les modèles Foundry prennent en charge. Pour savoir comment déployer un modèle Foundry sur les ressources Azure AI Foundry, consultez Ajouter et configurer des modèles à des modèles Azure AI Foundry.
Conditions préalables
Un abonnement Azure avec un moyen de paiement valide. Les abonnements Azure gratuits ou d’essai ne fonctionnent pas. Si vous ne disposez pas d’un abonnement Azure, commencez par créer un compte Azure payant.
Si vous n’en avez pas, créez un projet basé sur un hub.
Vérifiez que la fonctionnalité Déployer des modèles sur des ressources Azure AI Foundry (préversion) est désactivée dans le portail Azure AI Foundry. Lorsque cette fonctionnalité est activée, les déploiements d’API serverless ne sont pas disponibles à partir du portail.
Les modèles Foundry des partenaires et de la communauté nécessitent l’accès à la Place de marché Azure, tandis que les modèles Foundry vendus directement par Azure n’ont pas cette exigence. Vérifiez que vous disposez des autorisations nécessaires pour vous abonner aux offres de modèle dans la Place de marché Azure.
Les contrôles d’accès en fonction du rôle Azure (RBAC Azure) sont utilisés pour accorder l’accès aux opérations dans le portail Azure AI Foundry. Pour effectuer les étapes décrites dans cet article, votre compte d’utilisateur doit avoir le Rôle de développeur Azure AI sur le groupe de ressources. Pour plus d’informations sur les autorisations, consultez Contrôle d’accès en fonction du rôle sur le portail Azure AI Foundry.
- Vous pouvez utiliser n’importe quel navigateur web compatible pour naviguer dans Azure AI Foundry.
Rechercher votre modèle dans le catalogue de modèles
- Connectez-vous à Azure AI Foundry.
- Si vous n’êtes pas déjà dans votre projet, sélectionnez-le.
- Sélectionnez Catalogue de modèles dans le volet gauche.
Sélectionnez la carte de modèle du modèle que vous souhaitez déployer. Dans cet article, vous sélectionnez un modèle DeepSeek-R1 .
Sélectionnez Utiliser ce modèle pour ouvrir la fenêtre de déploiement de l’API serverless dans laquelle vous pouvez afficher l’onglet Tarification et termes .
Dans l’Assistant Déploiement, nommez le déploiement. L’option Filtre de contenu (préversion) est activée par défaut. Conservez le paramètre par défaut pour le service afin de détecter des contenus dangereux tels que la haine, l’automutilation, le contenu sexuel et la violence. Pour plus d’informations sur le filtrage de contenu, consultez le filtrage de contenu dans le portail Azure AI Foundry.
Déployer le modèle sur une API serverless
Dans cette section, vous allez créer un point de terminaison pour votre modèle.
Dans l’Assistant Déploiement, sélectionnez Déployer. Une fois que le déploiement est prêt, vous êtes redirigé vers la page Déploiements.
Pour afficher les points de terminaison déployés sur votre projet, dans la section Mes ressources du volet gauche, sélectionnez Modèles + points de terminaison.
Le point de terminaison créé utilise une authentification par clé pour l’autorisation. Pour obtenir les clés associées à un point de terminaison donné, procédez comme suit :
Sélectionnez le déploiement, puis notez l’URI cible et la clé du point de terminaison.
Utilisez ces informations d’identification pour appeler le déploiement et générer des prédictions.
Si vous devez utiliser ce déploiement à partir d’un autre projet ou hub, ou si vous envisagez d’utiliser Prompt Flow pour développer des applications intelligentes, il est nécessaire d’établir une connexion au déploiement de l’API serverless. Pour savoir comment configurer un déploiement d’API serverless existant sur un nouveau projet ou hub, consultez Utiliser le déploiement d’API serverless à partir d’un autre projet ou de Prompt flow.
Conseil / Astuce
Si vous utilisez Prompt flow dans le même projet ou hub où le déploiement a été réalisé, il est néanmoins nécessaire de créer la connexion.
Utiliser le déploiements d’API serverless
Les modèles déployés dans Azure Machine Learning et Azure AI Foundry dans les déploiements d’API serverless prennent en charge l’API Azure AI Model Inference qui expose un ensemble commun de fonctionnalités pour les modèles fondamentaux et qui peuvent être utilisées par les développeurs pour consommer des prédictions à partir d’un ensemble diversifié de modèles de manière uniforme et cohérente.
En savoir plus sur les fonctionnalités de cette API et découvrir comment vous pouvez l’utiliser lors de la création d’applications.
Supprimez les points de terminaison et les abonnements
Conseil / Astuce
Étant donné que vous pouvez personnaliser le volet gauche dans le portail Azure AI Foundry, vous pouvez voir différents éléments que ceux indiqués dans ces étapes. Si vous ne voyez pas ce que vous recherchez, sélectionnez ... Plus en bas du volet gauche.
Vous pouvez supprimer les abonnements et les points de terminaison de modèle. La suppression d’un abonnement à un modèle rend tout point de terminaison associé non sain et inutilisable.
Pour supprimer un déploiement d’API serverless :
- Accédez à Azure AI Foundry.
- Accédez à votre projet.
- Dans la section Mes ressources , sélectionnez Modèles + points de terminaison.
- Ouvrez le déploiement à supprimer.
- Sélectionnez Supprimer.
Pour supprimer l’abonnement au modèle associé :
- Accéder à la portail Azure
- Accédez au groupe de ressources auquel appartient le projet.
- Dans le filtre Type, sélectionnez SaaS.
- Sélectionnez l’abonnement à supprimer.
- Sélectionnez Supprimer.
Pour utiliser Azure AI Foundry, installez Azure CLI et l’extension ml pour Azure Machine Learning.
az extension add -n ml
Si l’extension est déjà installée, vérifiez que la version installée est la plus récente.
az extension update -n ml
Une fois l’extension installée, configurez-la :
az account set --subscription <subscription> az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
Rechercher votre modèle dans le catalogue de modèles
- Connectez-vous à Azure AI Foundry.
- Si vous n’êtes pas déjà dans votre projet, sélectionnez-le.
- Sélectionnez Catalogue de modèles dans le volet gauche.
Sélectionnez la carte de modèle du modèle que vous souhaitez déployer. Dans cet article, vous sélectionnez un modèle DeepSeek-R1 .
Copiez l’ID de modèle sans inclure la version du modèle, car les déploiements d’API serverless déploient toujours la dernière version du modèle disponible. Par exemple, pour l’ID de modèle
azureml://registries/azureml-deepseek/models/DeepSeek-R1/versions/1
, copiezazureml://registries/azureml-deepseek/models/DeepSeek-R1
.
Les étapes décrites dans cette section de l’article utilisent le modèle DeepSeek-R1 pour l’illustration. Les étapes sont les mêmes, que vous utilisiez des modèles Foundry vendus directement par Azure ou Des modèles Foundry de partenaires et de la communauté. Par exemple, si vous choisissez de déployer le modèle Cohere-command-r-08-2024 à la place, vous pouvez remplacer les informations d’identification du modèle dans les extraits de code par les informations d’identification de Cohere.
Déployer le modèle sur une API serverless
Dans cette section, vous allez créer un point de terminaison pour votre modèle. Nommez le point de terminaison DeepSeek-R1-qwerty.
Créez le point de terminaison serverless.
endpoint.yml
name: DeepSeek-R1-qwerty model_id: azureml://registries/azureml-deepseek/models/DeepSeek-R1
Utilisez le fichier endpoint.yml pour créer le point de terminaison :
az ml serverless-endpoint create -f endpoint.yml
À tout moment, vous pouvez voir les points de terminaison associés à votre projet :
az ml serverless-endpoint list
Le point de terminaison créé utilise une authentification par clé pour l’autorisation. Procédez comme suit pour obtenir les clés associées à un point de terminaison donné.
az ml serverless-endpoint get-credentials -n DeepSeek-R1-qwerty
Si vous devez utiliser ce déploiement à partir d’un autre projet ou hub, ou si vous envisagez d’utiliser Prompt Flow pour développer des applications intelligentes, il est nécessaire d’établir une connexion au déploiement de l’API serverless. Pour savoir comment configurer un déploiement d’API serverless existant sur un nouveau projet ou hub, consultez Utiliser le déploiement d’API serverless à partir d’un autre projet ou de Prompt flow.
Conseil / Astuce
Si vous utilisez Prompt flow dans le même projet ou hub où le déploiement a été réalisé, il est néanmoins nécessaire de créer la connexion.
Utiliser le déploiements d’API serverless
Les modèles déployés dans Azure Machine Learning et Azure AI Foundry dans les déploiements d’API serverless prennent en charge l’API Azure AI Model Inference qui expose un ensemble commun de fonctionnalités pour les modèles fondamentaux et qui peuvent être utilisées par les développeurs pour consommer des prédictions à partir d’un ensemble diversifié de modèles de manière uniforme et cohérente.
En savoir plus sur les fonctionnalités de cette API et découvrir comment vous pouvez l’utiliser lors de la création d’applications.
Supprimez les points de terminaison et les abonnements
Vous pouvez supprimer les abonnements et les points de terminaison de modèle. La suppression d’un abonnement à un modèle rend tout point de terminaison associé non sain et inutilisable.
Pour supprimer un déploiement d’API serverless :
az ml serverless-endpoint delete \
--name "DeepSeek-R1-qwerty"
Pour supprimer l’abonnement au modèle associé :
az ml marketplace-subscription delete \
--name "DeepSeek-R1"
Pour utiliser Azure AI Foundry, installez le Kit de développement logiciel (SDK) Azure Machine Learning pour Python.
pip install -U azure-ai-ml
Après installation, importez les espaces de noms nécessaires et créez un client connecté à votre projet :
from azure.ai.ml import MLClient from azure.identity import InteractiveBrowserCredential from azure.ai.ml.entities import MarketplaceSubscription, ServerlessEndpoint client = MLClient( credential=InteractiveBrowserCredential(tenant_id="<tenant-id>"), subscription_id="<subscription-id>", resource_group_name="<resource-group>", workspace_name="<project-name>", )
Rechercher votre modèle dans le catalogue de modèles
- Connectez-vous à Azure AI Foundry.
- Si vous n’êtes pas déjà dans votre projet, sélectionnez-le.
- Sélectionnez Catalogue de modèles dans le volet gauche.
Sélectionnez la carte de modèle du modèle que vous souhaitez déployer. Dans cet article, vous sélectionnez un modèle DeepSeek-R1 .
Copiez l’ID de modèle sans inclure la version du modèle, car les déploiements d’API serverless déploient toujours la dernière version du modèle disponible. Par exemple, pour l’ID de modèle
azureml://registries/azureml-deepseek/models/DeepSeek-R1/versions/1
, copiezazureml://registries/azureml-deepseek/models/DeepSeek-R1
.
Les étapes décrites dans cette section de l’article utilisent le modèle DeepSeek-R1 pour l’illustration. Les étapes sont les mêmes, que vous utilisiez des modèles Foundry vendus directement par Azure ou Des modèles Foundry de partenaires et de la communauté. Par exemple, si vous choisissez de déployer le modèle Cohere-command-r-08-2024 à la place, vous pouvez remplacer les informations d’identification du modèle dans les extraits de code par les informations d’identification de Cohere.
Déployer le modèle sur une API serverless
Dans cette section, vous allez créer un point de terminaison pour votre modèle. Nommez le point de terminaison DeepSeek-R1-qwerty.
Créez le point de terminaison serverless.
endpoint_name="DeepSeek-R1-qwerty" serverless_endpoint = ServerlessEndpoint( name=endpoint_name, model_id=model_id ) created_endpoint = client.serverless_endpoints.begin_create_or_update( serverless_endpoint ).result()
À tout moment, vous pouvez voir les points de terminaison associés à votre projet :
endpoint_name="DeepSeek-R1-qwerty" serverless_endpoint = ServerlessEndpoint( name=endpoint_name, model_id=model_id ) created_endpoint = client.serverless_endpoints.begin_create_or_update( serverless_endpoint ).result()
Le point de terminaison créé utilise une authentification par clé pour l’autorisation. Procédez comme suit pour obtenir les clés associées à un point de terminaison donné.
endpoint_keys = client.serverless_endpoints.get_keys(endpoint_name) print(endpoint_keys.primary_key) print(endpoint_keys.secondary_key)
Si vous devez utiliser ce déploiement à partir d’un autre projet ou hub, ou si vous envisagez d’utiliser Prompt Flow pour développer des applications intelligentes, il est nécessaire d’établir une connexion au déploiement de l’API serverless. Pour savoir comment configurer un déploiement d’API serverless existant sur un nouveau projet ou hub, consultez Utiliser le déploiement d’API serverless à partir d’un autre projet ou de Prompt flow.
Conseil / Astuce
Si vous utilisez Prompt flow dans le même projet ou hub où le déploiement a été réalisé, il est néanmoins nécessaire de créer la connexion.
Utiliser le déploiements d’API serverless
Les modèles déployés dans Azure Machine Learning et Azure AI Foundry dans les déploiements d’API serverless prennent en charge l’API Azure AI Model Inference qui expose un ensemble commun de fonctionnalités pour les modèles fondamentaux et qui peuvent être utilisées par les développeurs pour consommer des prédictions à partir d’un ensemble diversifié de modèles de manière uniforme et cohérente.
En savoir plus sur les fonctionnalités de cette API et découvrir comment vous pouvez l’utiliser lors de la création d’applications.
Supprimez les points de terminaison et les abonnements
Vous pouvez supprimer les abonnements et les points de terminaison de modèle. La suppression d’un abonnement à un modèle rend tout point de terminaison associé non sain et inutilisable.
client.serverless_endpoints.begin_delete(endpoint_name).wait()
Pour supprimer l’abonnement au modèle associé :
client.marketplace_subscriptions.begin_delete(subscription_name).wait()
Pour utiliser Azure AI Foundry, installez Azure CLI comme décrit dans Azure CLI.
Configurez les variables d’environnement suivantes en fonction de vos paramètres :
RESOURCE_GROUP="serverless-models-dev" LOCATION="eastus2"
Rechercher votre modèle dans le catalogue de modèles
- Connectez-vous à Azure AI Foundry.
- Si vous n’êtes pas déjà dans votre projet, sélectionnez-le.
- Sélectionnez Catalogue de modèles dans le volet gauche.
Sélectionnez la carte de modèle du modèle que vous souhaitez déployer. Dans cet article, vous sélectionnez un modèle DeepSeek-R1 .
Copiez l’ID de modèle sans inclure la version du modèle, car les déploiements d’API serverless déploient toujours la dernière version du modèle disponible. Par exemple, pour l’ID de modèle
azureml://registries/azureml-deepseek/models/DeepSeek-R1/versions/1
, copiezazureml://registries/azureml-deepseek/models/DeepSeek-R1
.
Les étapes décrites dans cette section de l’article utilisent le modèle DeepSeek-R1 pour l’illustration. Les étapes sont les mêmes, que vous utilisiez des modèles Foundry vendus directement par Azure ou Des modèles Foundry de partenaires et de la communauté. Par exemple, si vous choisissez de déployer le modèle Cohere-command-r-08-2024 à la place, vous pouvez remplacer les informations d’identification du modèle dans les extraits de code par les informations d’identification de Cohere.
Déployer le modèle sur une API serverless
Dans cette section, vous allez créer un point de terminaison pour votre modèle. Nommez le point de terminaison myserverless-text-1234ss.
Créez le point de terminaison serverless. Utilisez le modèle suivant pour créer un point de terminaison :
serverless-endpoint.bicep
param projectName string = 'my-project' param endpointName string = 'myserverless-text-1234ss' param location string = resourceGroup().location param modelId string = 'azureml://registries/azureml-deepseek/models/DeepSeek-R1' var modelName = substring(modelId, (lastIndexOf(modelId, '/') + 1)) var subscriptionName = '${modelName}-subscription' resource projectName_endpoint 'Microsoft.MachineLearningServices/workspaces/serverlessEndpoints@2024-04-01-preview' = { name: '${projectName}/${endpointName}' location: location sku: { name: 'Consumption' } properties: { modelSettings: { modelId: modelId } } dependsOn: [ projectName_subscription ] } output endpointUri string = projectName_endpoint.properties.inferenceEndpoint.uri
Créez le déploiement comme suit :
az deployment group create --resource-group $RESOURCE_GROUP --template-file model-subscription.bicep
À tout moment, vous pouvez voir les points de terminaison associés à votre projet :
Vous pouvez utiliser les outils de gestion des ressources pour interroger les ressources. Le code suivant utilise Azure CLI :
az resource list \ --query "[?type=='Microsoft.MachineLearningServices/workspaces/serverlessEndpoints']"
Le point de terminaison créé utilise une authentification par clé pour l’autorisation. Obtenez les clés associées au point de terminaison donné à l’aide d’API REST pour interroger ces informations.
Si vous devez utiliser ce déploiement à partir d’un autre projet ou hub, ou si vous envisagez d’utiliser Prompt Flow pour développer des applications intelligentes, il est nécessaire d’établir une connexion au déploiement de l’API serverless. Pour savoir comment configurer un déploiement d’API serverless existant sur un nouveau projet ou hub, consultez Utiliser le déploiement d’API serverless à partir d’un autre projet ou de Prompt flow.
Conseil / Astuce
Si vous utilisez Prompt flow dans le même projet ou hub où le déploiement a été réalisé, il est néanmoins nécessaire de créer la connexion.
Utiliser le déploiements d’API serverless
Les modèles déployés dans Azure Machine Learning et Azure AI Foundry dans les déploiements d’API serverless prennent en charge l’API Azure AI Model Inference qui expose un ensemble commun de fonctionnalités pour les modèles fondamentaux et qui peuvent être utilisées par les développeurs pour consommer des prédictions à partir d’un ensemble diversifié de modèles de manière uniforme et cohérente.
En savoir plus sur les fonctionnalités de cette API et découvrir comment vous pouvez l’utiliser lors de la création d’applications.
Supprimez les points de terminaison et les abonnements
Vous pouvez supprimer les abonnements et les points de terminaison de modèle. La suppression d’un abonnement à un modèle rend tout point de terminaison associé non sain et inutilisable.
Vous pouvez utiliser les outils de gestion des ressources pour gérer les ressources. Le code suivant utilise Azure CLI :
az resource delete --name <resource-name>
Considérations relatives au coût et au quota pour les modèles Foundry déployés en tant que déploiement d’API serverless
Le quota est géré par déploiement. Chaque déploiement a une limite de débit de 200 000 jetons par minute et 1 000 requêtes d’API par minute. En outre, nous limitons actuellement un déploiement par modèle par projet. Contactez le Support Microsoft Azure si les limites de débit actuelles ne suffisent pas pour vos scénarios.
Vous trouverez des informations de tarification sur les modèles vendus directement par Azure, sous l’onglet Tarification et conditions de la fenêtre de déploiement de l’API serverless .
Les modèles des partenaires et de la communauté sont proposés via la Place de marché Azure et intégrés à Azure AI Foundry pour une utilisation. Vous pouvez trouver la tarification de la Place de marché Azure quand vous déployez ou que vous optimisez ces modèles. Chaque fois qu’un projet s’abonne à une offre donnée depuis la Place de marché Azure, une nouvelle ressource est créée pour suivre les coûts associés à sa consommation. La même ressource est utilisée pour suivre les coûts associés à l’inférence et à l’optimisation ; plusieurs compteurs sont cependant disponibles pour suivre chaque scénario indépendamment. Pour plus d’informations sur le suivi des coûts, consultez Surveiller les coûts des modèles proposés via la Place de marché Azure.
Autorisations requises pour s’abonner aux offres de modèles
Les contrôles d’accès en fonction du rôle Azure (RBAC Azure) sont utilisés pour accorder l’accès aux opérations dans le portail Azure AI Foundry. Pour effectuer les étapes de cet article, votre compte d’utilisateur doit avoir le rôle Propriétaire,Contributeur ou Développeur Azure AI attribué pour l’abonnement Azure. Une autre possibilité est que votre compte dispose d’un rôle personnalisé avec les autorisations suivantes :
Sur l’abonnement Azure : pour abonner l’espace de travail à l’offre place de marché Azure, une fois pour chaque espace de travail, par offre :
Microsoft.MarketplaceOrdering/agreements/offers/plans/read
Microsoft.MarketplaceOrdering/agreements/offers/plans/sign/action
Microsoft.MarketplaceOrdering/offerTypes/publishers/offers/plans/agreements/read
Microsoft.Marketplace/offerTypes/publishers/offers/plans/agreements/read
Microsoft.SaaS/register/action
Dans le groupe de ressources: pour créer et utiliser la ressource SaaS :
Microsoft.SaaS/resources/read
Microsoft.SaaS/resources/write
Sur l’espace de travail – pour déployer des endpoints (le rôle du scientifique des données Azure Machine Learning dispose déjà de ces autorisations) :
Microsoft.MachineLearningServices/workspaces/marketplaceModelSubscriptions/*
Microsoft.MachineLearningServices/workspaces/serverlessEndpoints/*
Pour plus d’informations sur les autorisations, consultez Contrôle d’accès en fonction du rôle sur le portail Azure AI Foundry.