Partager via


Ajouter et configurer des modèles à des modèles Azure AI Foundry

Vous pouvez décider et configurer les modèles disponibles pour l’inférence dans votre ressource Azure AI Foundry. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Dans cet article, vous allez apprendre à ajouter un nouveau modèle à Azure AI Foundry.

Conditions préalables

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Un projet IA connecté à votre ressource Azure AI Foundry avec la fonctionnalité Déployer des modèles sur le service modèles Azure AI Foundry.

Ajouter un modèle

Vous pouvez ajouter des modèles au point de terminaison Foundry Models en procédant comme suit :

  1. Accédez à la section Catalogue de modèles dans le Portail Azure AI Foundry.

  2. Faites défiler jusqu’au modèle qui vous intéresse et sélectionnez-le.

    Animation montrant comment rechercher des modèles dans le catalogue de modèles et en sélectionner un pour afficher ses détails.

  3. Vous pouvez consulter les détails du modèle sur la carte de modèle.

  4. Sélectionnez Déployer.

  5. Pour les fournisseurs de modèles qui demandent des conditions contractuelles supplémentaires, vous êtes invité à les accepter. C’est le cas des modèles Mistral par exemple. Acceptez les conditions de ces cas en sélectionnant S’abonner et déployer.

    Capture d’écran montrant comment accepter les conditions générales d’un modèle Mistral-Large.

  6. Vous pouvez configurer les paramètres de déploiement à ce moment. Par défaut, le déploiement reçoit le nom du modèle que vous déployez. Le nom du déploiement est utilisé dans le paramètre model pour que la requête soit acheminée vers ce modèle de déploiement particulier. Cela vous permet également de configurer des noms spécifiques pour vos modèles quand vous attachez des configurations spécifiques. Par exemple o1-preview-safe , pour un modèle avec un filtre de contenu strict.

    Conseil / Astuce

    Chaque modèle peut prendre en charge différents types de déploiements, qui offrent différentes garanties de débit ou de résidence des données. Pour plus d’informations, consultez les types de déploiement.

  7. Nous sélectionnons automatiquement une connexion Azure AI Foundry en fonction de votre projet. Utilisez l’option Personnaliser pour modifier la connexion en fonction de vos besoins. Si vous effectuez un déploiement sous le type de déploiement d’API serverless , les modèles doivent être disponibles dans la région de la ressource Azure AI Foundry.

    Capture d’écran montrant comment personnaliser le déploiement si nécessaire.

    Conseil / Astuce

    Si la ressource souhaitée n’est pas répertoriée, vous devrez peut-être créer une connexion à celle-ci. Consultez Configurer des modèles Azure AI Foundry dans mon projet dans le portail Azure AI Foundry.

  8. Sélectionnez Déployer.

  9. Une fois le déploiement terminé, le nouveau modèle est répertorié sur la page et est prêt à être utilisé.

Gérer les modèles

Vous pouvez gérer les modèles de déploiements existants dans la ressource à l’aide du portail Azure AI Foundry.

  1. Accédez à la section Modèles + Points de terminaison dans le Portail Azure AI Foundry.

  2. Faites défiler jusqu’à la connexion à votre ressource Azure AI Foundry. Les modèles de déploiement sont regroupés et affichés par connexion.

    Capture d’écran montrant la liste des modèles disponibles sous une connexion donnée.

  3. Vous voyez une liste de modèles disponibles sous chaque connexion. Sélectionnez le modèle de déploiement qui vous intéresse.

  4. Modifier ou Supprimer le déploiement si nécessaire.

Testez le déploiement dans le terrain de jeu

Vous pouvez interagir avec le nouveau modèle dans le portail Azure AI Foundry à l’aide du terrain de jeu :

Remarque

Le terrain de jeu est disponible uniquement lors de l’utilisation de projets IA dans Azure AI Foundry. Créez un projet IA pour obtenir un accès total à toutes les fonctionnalités d’Azure AI Foundry.

  1. Accédez à la section Terrains de jeux dans le Portail Azure AI Foundry.

  2. Selon le type de modèle que vous avez déployé, sélectionnez le terrain de jeu dont vous avez besoin. Dans ce cas, nous sélectionnons Terrain de jeu de conversation.

  3. Dans la liste déroulante Déploiement, sous Configuration, sélectionnez le nom du modèle de déploiement que vous avez créé.

    Capture d’écran montrant comment sélectionner un modèle de déploiement pour l’utiliser dans le terrain de jeu.

  4. Tapez votre requête et consultez les sorties.

  5. En outre, vous pouvez utiliser Afficher le code pour afficher des détails sur la façon d’accéder au modèle de déploiement par programmation.

Vous pouvez décider et configurer les modèles disponibles pour l’inférence dans votre ressource Azure AI Foundry. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Dans cet article, vous allez apprendre à ajouter un nouveau modèle à Azure AI Foundry.

Conditions préalables

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Installer Azure CLI et l’extension cognitiveservices pour Azure AI Services :

    az extension add -n cognitiveservices
    
  • Certaines des commandes de ce tutoriel utilisent l’outil jq, qui peut ne pas être installé dans votre système. Pour connaître les instructions d’installation, consultez Télécharger jq.

  • Identifiez les informations suivantes :

    • Votre ID d’abonnement Azure.

    • Le nom de votre ressource Azure AI Services.

    • Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.

Ajouter des modèles

Pour ajouter un modèle, vous devez d’abord identifier le modèle que vous souhaitez déployer. Vous pouvez interroger les modèles disponibles comme suit :

  1. Connectez-vous à votre abonnement Azure :

    az login
    
  2. Si vous avez plusieurs abonnements, sélectionnez celui dans lequel se trouve votre ressource :

    az account set --subscription $subscriptionId
    
  3. Définissez les variables d’environnement suivantes avec le nom de la ressource Azure AI Services que vous envisagez d’utiliser et le groupe de ressources.

    accountName="<ai-services-resource-name>"
    resourceGroupName="<resource-group>"
    location="eastus2"
    
  4. Si vous n’avez pas encore de compte Azure AI Services, vous pouvez en créer un comme suit :

    az cognitiveservices account create -n $accountName -g $resourceGroupName --custom-domain $accountName --location $location --kind AIServices --sku S0
    
  5. Voyons d’abord quels modèles sont disponibles et sous quelle référence SKU. Les références SKU, également appelées types de déploiement, définissent la façon dont l’infrastructure Azure est utilisée pour traiter les demandes. Les modèles peuvent offrir différents types de déploiement. La commande suivante répertorie toutes les définitions de modèle disponibles :

    az cognitiveservices account list-models \
        -n $accountName \
        -g $resourceGroupName \
    | jq '.[] | { name: .name, format: .format, version: .version, sku: .skus[0].name, capacity: .skus[0].capacity.default }'
    
  6. Les sorties se présentent comme suit :

    {
      "name": "Phi-3.5-vision-instruct",
      "format": "Microsoft",
      "version": "2",
      "sku": "GlobalStandard",
      "capacity": 1
    }
    
  7. Identifiez le modèle que vous souhaitez déployer. Vous avez besoin des propriétés name, format, version et sku. La propriété format indique le fournisseur offrant le modèle. Une capacité peut également être nécessaire selon le type de déploiement.

  8. Ajoutez le modèle de déploiement à la ressource. L'exemple suivant ajoute Phi-3.5-vision-instruct :

    az cognitiveservices account deployment create \
        -n $accountName \
        -g $resourceGroupName \
        --deployment-name Phi-3.5-vision-instruct \
        --model-name Phi-3.5-vision-instruct \
        --model-version 2 \
        --model-format Microsoft \
        --sku-capacity 1 \
        --sku-name GlobalStandard
    
  9. Le modèle est prêt à être consommé.

Vous pouvez déployer le même modèle plusieurs fois si nécessaire, mais sous un nom de déploiement différent. Cette fonctionnalité peut être utile si vous souhaitez tester différentes configurations pour un modèle donné, y compris les filtres de contenu.

Utiliser le modèle

Les modèles déployés sont utilisables en utilisant le point de terminaison d’inférence du modèle Azure AI pour cette ressource. Lors de la création de votre requête, indiquez le paramètre model et insérez le nom du modèle de déploiement que vous avez créé. Vous pouvez obtenir par programmation l’URI du point de terminaison d’inférence à l’aide du code suivant :

Point de terminaison d'inférence

az cognitiveservices account show  -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'

Pour effectuer des requêtes au point de terminaison Azure AI Foundry Models, ajoutez l’itinéraire models, par exemple https://<resource>.services.ai.azure.com/models. Vous pouvez voir la référence d’API pour le point de terminaison dans la page de référence de l’API d’inférence du modèle Azure AI.

Clés d’inférence

az cognitiveservices account keys list  -n $accountName -g $resourceGroupName

Gérer les déploiements

Vous pouvez afficher tous les déploiements disponibles à l’aide de la CLI :

  1. Exécutez la commande suivante pour afficher tous les déploiements actifs :

    az cognitiveservices account deployment list -n $accountName -g $resourceGroupName
    
  2. Vous pouvez afficher les détails d’un déploiement donné :

    az cognitiveservices account deployment show \
        --deployment-name "Phi-3.5-vision-instruct" \
        -n $accountName \
        -g $resourceGroupName
    
  3. Vous pouvez supprimer un déploiement donné comme suit :

    az cognitiveservices account deployment delete \
        --deployment-name "Phi-3.5-vision-instruct" \
        -n $accountName \
        -g $resourceGroupName
    

Vous pouvez décider et configurer les modèles disponibles pour l’inférence dans votre ressource Azure AI Foundry. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Dans cet article, vous allez apprendre à ajouter un nouveau modèle à Azure AI Foundry.

Conditions préalables

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Installez Azure CLI.

  • Identifiez les informations suivantes :

    • Votre ID d’abonnement Azure.

    • Votre nom de ressource Azure AI Foundry (anciennement appelé Azure AI Services).

    • Groupe de ressources dans lequel la ressource Azure AI Foundry est déployée.

    • Nom du modèle, fournisseur, version et référence SKU que vous souhaitez déployer. Vous pouvez utiliser le portail Azure AI Foundry ou Azure CLI pour l’identifier. Dans cet exemple, nous déployons le modèle suivant :

      • Nom du modèle : Phi-3.5-vision-instruct
      • Fournisseur : Microsoft
      • Version :2
      • Type de déploiement : Standard global

À propos de ce didacticiel

L'exemple présenté dans cet article est basé sur les échantillons de code contenus dans le référentiel Azure-Samples/azureai-model-inference-bicep. Pour exécuter les commandes localement sans avoir à copier ou coller le contenu des fichiers, utilisez les commandes suivantes pour cloner le référentiel et vous rendre dans le dossier correspondant à votre langage de codage :

git clone https://github.com/Azure-Samples/azureai-model-inference-bicep

Les fichiers de cet exemple se situent dans :

cd azureai-model-inference-bicep/infra

Autorisations requises pour s’abonner aux modèles des partenaires et de la communauté

Les modèles des partenaires et de la communauté disponibles pour le déploiement (par exemple, les modèles Cohere) nécessitent la Place de marché Azure. Les fournisseurs de modèles définissent les termes du contrat de licence et définissent le prix d’utilisation de leurs modèles à l’aide de la Place de marché Azure.

Lors du déploiement de modèles tiers, vérifiez que vous disposez des autorisations suivantes dans votre compte :

  • Sur l’abonnement Azure :
    • Microsoft.MarketplaceOrdering/agreements/offers/plans/read
    • Microsoft.MarketplaceOrdering/agreements/offers/plans/sign/action
    • Microsoft.MarketplaceOrdering/offerTypes/publishers/offers/plans/agreements/read
    • Microsoft.Marketplace/offerTypes/publishers/offers/plans/agreements/read
    • Microsoft.SaaS/register/action
  • Sur le groupe de ressources, pour créer et utiliser la ressource SaaS :
    • Microsoft.SaaS/resources/read
    • Microsoft.SaaS/resources/write

Ajouter le modèle

  1. Utilisez le modèle ai-services-deployment-template.bicep pour décrire les modèles de déploiement :

    ai-services-deployment-template.bicep

    @description('Name of the Azure AI services account')
    param accountName string
    
    @description('Name of the model to deploy')
    param modelName string
    
    @description('Version of the model to deploy')
    param modelVersion string
    
    @allowed([
      'AI21 Labs'
      'Cohere'
      'Core42'
      'DeepSeek'
      'xAI'
      'Meta'
      'Microsoft'
      'Mistral AI'
      'OpenAI'
    ])
    @description('Model provider')
    param modelPublisherFormat string
    
    @allowed([
        'GlobalStandard'
        'DataZoneStandard'
        'Standard'
        'GlobalProvisioned'
        'Provisioned'
    ])
    @description('Model deployment SKU name')
    param skuName string = 'GlobalStandard'
    
    @description('Content filter policy name')
    param contentFilterPolicyName string = 'Microsoft.DefaultV2'
    
    @description('Model deployment capacity')
    param capacity int = 1
    
    resource modelDeployment 'Microsoft.CognitiveServices/accounts/deployments@2024-04-01-preview' = {
      name: '${accountName}/${modelName}'
      sku: {
        name: skuName
        capacity: capacity
      }
      properties: {
        model: {
          format: modelPublisherFormat
          name: modelName
          version: modelVersion
        }
        raiPolicyName: contentFilterPolicyName == null ? 'Microsoft.Nill' : contentFilterPolicyName
      }
    }
    
  2. Exécutez le déploiement :

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    MODEL_NAME="Phi-3.5-vision-instruct"
    PROVIDER="Microsoft"
    VERSION=2
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-deployment-template.bicep \
        --parameters accountName=$ACCOUNT_NAME modelName=$MODEL_NAME modelVersion=$VERSION modelPublisherFormat=$PROVIDER
    

Utiliser le modèle

Les modèles déployés peuvent être consommés via le point de terminaison d’inférence du modèle Azure AI pour la ressource. Lors de la création de votre requête, indiquez le paramètre model et insérez le nom du modèle de déploiement que vous avez créé.

Étapes suivantes