Partage via


Comment déployer des modèles Azure OpenAI avec Azure AI Foundry

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Dans cet article, vous allez apprendre à créer des déploiements de modèles Azure OpenAI dans le portail Azure AI Foundry.

Azure OpenAI Service offre un ensemble diversifié de modèles avec des fonctionnalités variées et à des prix différents. Lorsque vous déployez des modèles Azure OpenAI dans le portail Azure AI Foundry, vous pouvez utiliser les déploiements à l’aide d’un flux d’invite ou d’un autre outil. La disponibilité des modèles varie selon les régions. Pour en savoir plus sur les détails de chaque modèle, consultez Modèles Azure OpenAI Service.

Pour modifier un modèle Azure OpenAI et interagir avec celui-ci dans le terrain de jeu Azure AI Foundry, vous devez d’abord déployer un modèle Azure OpenAI de base sur votre projet. Une fois que le modèle est déployé et disponible dans votre projet, vous pouvez consommer son point de terminaison d’API REST tel quel ou personnaliser davantage avec vos propres données et autres composants (incorporations, index, etc.).

Prérequis

  • Un abonnement Azure avec un moyen de paiement valide. Les abonnements Azure gratuits ou d’essai ne fonctionnent pas. Si vous ne disposez pas d’un abonnement Azure, commencez par créer un compte Azure payant.

  • Un projet Azure AI Foundry.

Déployer un modèle Azure OpenAI à partir du catalogue de modèles

Suivez les étapes ci-dessous pour déployer un modèle Azure OpenAI comme gpt-4o-mini sur un point de terminaison en temps réel depuis le catalogue de modèles du portail Azure AI Foundry :

  1. Connectez-vous à Azure AI Foundry.
  2. Si vous n’êtes pas déjà dans votre projet, sélectionnez-le.
  3. Sélectionnez Catalogue de modèles dans le volet de navigation gauche.
  1. Dans le filtre Collections, sélectionnez Azure OpenAI.

    Capture d’écran montrant comment filtrer les modèles Azure OpenAI dans le catalogue.

  2. Sélectionnez un modèle tel que gpt-4o-mini dans la collection Azure OpenAI.

  3. Sélectionnez Déployer pour ouvrir la fenêtre de déploiement.

  4. Sélectionnez la ressource sur laquelle vous souhaitez déployer le modèle. Si vous n’avez pas de ressource, vous pouvez en créer une.

  5. Spécifiez le nom du déploiement et modifiez d’autres paramètres par défaut en fonction de vos besoins.

  6. Sélectionnez Déployer.

  7. Vous arrivez dans la page des détails du déploiement. Sélectionnez Ouvrir dans le terrain de jeu.

  8. Sélectionnez Afficher le code pour obtenir des exemples de code qui permettront de consommer le modèle déployé dans votre application.

Déployer un modèle Azure OpenAI à partir de votre projet

Vous pouvez aussi lancer le déploiement en commençant depuis votre projet dans le portail Azure AI Foundry.

  1. Accédez à votre projet dans le portail Azure AI Foundry.
  2. Dans la barre latérale gauche de votre projet, accédez à Mes ressources>Modèles + points de terminaison.
  3. Sélectionnez Déployer le modèle>Déployer le modèle de base.
  4. Dans le filtre Collections, sélectionnez Azure OpenAI.
  5. Sélectionnez un modèle tel que gpt-4o-mini dans la collection Azure OpenAI.
  6. Sélectionnez Confirmer pour ouvrir la fenêtre de déploiement.
  7. Spécifiez le nom du déploiement et modifiez d’autres paramètres par défaut en fonction de vos besoins.
  8. Sélectionnez Déployer.
  9. Vous arrivez dans la page des détails du déploiement. Sélectionnez Ouvrir dans le terrain de jeu.
  10. Sélectionnez Afficher le code pour obtenir des exemples de code qui permettront de consommer le modèle déployé dans votre application.

Inférence du modèle Azure OpenAI

Pour effectuer une inférence sur le modèle déployé, vous pouvez utiliser les exemples de jeux ou de code. Le terrain de jeu est une interface web qui vous permet d’interagir avec le modèle en temps réel. Vous pouvez utiliser le terrain de jeu pour tester le modèle avec différentes invites et voir les réponses du modèle.

Pour obtenir d’autres exemples d’utilisation du modèle déployé dans votre application, consultez les guides de démarrage rapide Azure OpenAI suivants :

Limites régionales de disponibilité et de quota d’un modèle

Pour les modèles Azure OpenAI, le quota par défaut pour les modèles varie selon le modèle et la région. Certains modèles peuvent n’être disponibles que dans certaines régions. Pour plus d’informations sur la disponibilité et les limites de quota, consultez Quotas et limites d’Azure OpenAI Service.

Quota pour le déploiement et l’inférence d’un modèle

Pour les modèles Azure OpenAI, le déploiement et l’inférence consomment un quota affecté à votre abonnement par région, par modèle en unités de jetons par minute (TPM). Lorsque vous vous inscrivez à Azure AI Foundry, vous recevez un quota par défaut pour la plupart des modèles disponibles. Ensuite, vous affectez un module TPM à chaque déploiement tel qu’il est créé, ce qui réduit le quota disponible pour ce modèle en fonction de la quantité que vous avez affectée. Vous pouvez continuer à créer des déploiements et à les affecter jusqu’à atteindre votre limite de quota.

Une fois que vous atteignez votre limite de quota, la seule façon de créer de nouveaux déploiements de ce modèle consiste à :

Pour en savoir plus sur le quota, consultez Quota Azure AI Foundry et Gérer le quota Azure OpenAI Service.