Comment déployer des modèles Azure OpenAI avec Azure AI Foundry
Important
Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Dans cet article, vous allez apprendre à créer des déploiements de modèles Azure OpenAI dans le portail Azure AI Foundry.
Azure OpenAI Service offre un ensemble diversifié de modèles avec des fonctionnalités variées et à des prix différents. Lorsque vous déployez des modèles Azure OpenAI dans le portail Azure AI Foundry, vous pouvez utiliser les déploiements à l’aide d’un flux d’invite ou d’un autre outil. La disponibilité des modèles varie selon les régions. Pour en savoir plus sur les détails de chaque modèle, consultez Modèles Azure OpenAI Service.
Pour modifier un modèle Azure OpenAI et interagir avec celui-ci dans le terrain de jeu Azure AI Foundry, vous devez d’abord déployer un modèle Azure OpenAI de base sur votre projet. Une fois que le modèle est déployé et disponible dans votre projet, vous pouvez consommer son point de terminaison d’API REST tel quel ou personnaliser davantage avec vos propres données et autres composants (incorporations, index, etc.).
Prérequis
Un abonnement Azure avec un moyen de paiement valide. Les abonnements Azure gratuits ou d’essai ne fonctionnent pas. Si vous ne disposez pas d’un abonnement Azure, commencez par créer un compte Azure payant.
Déployer un modèle Azure OpenAI à partir du catalogue de modèles
Suivez les étapes ci-dessous pour déployer un modèle Azure OpenAI comme gpt-4o-mini
sur un point de terminaison en temps réel depuis le catalogue de modèles du portail Azure AI Foundry :
- Connectez-vous à Azure AI Foundry.
- Si vous n’êtes pas déjà dans votre projet, sélectionnez-le.
- Sélectionnez Catalogue de modèles dans le volet de navigation gauche.
Dans le filtre Collections, sélectionnez Azure OpenAI.
Sélectionnez un modèle tel que
gpt-4o-mini
dans la collection Azure OpenAI.Sélectionnez Déployer pour ouvrir la fenêtre de déploiement.
Sélectionnez la ressource sur laquelle vous souhaitez déployer le modèle. Si vous n’avez pas de ressource, vous pouvez en créer une.
Spécifiez le nom du déploiement et modifiez d’autres paramètres par défaut en fonction de vos besoins.
Sélectionnez Déployer.
Vous arrivez dans la page des détails du déploiement. Sélectionnez Ouvrir dans le terrain de jeu.
Sélectionnez Afficher le code pour obtenir des exemples de code qui permettront de consommer le modèle déployé dans votre application.
Déployer un modèle Azure OpenAI à partir de votre projet
Vous pouvez aussi lancer le déploiement en commençant depuis votre projet dans le portail Azure AI Foundry.
- Accédez à votre projet dans le portail Azure AI Foundry.
- Dans la barre latérale gauche de votre projet, accédez à Mes ressources>Modèles + points de terminaison.
- Sélectionnez Déployer le modèle>Déployer le modèle de base.
- Dans le filtre Collections, sélectionnez Azure OpenAI.
- Sélectionnez un modèle tel que
gpt-4o-mini
dans la collection Azure OpenAI. - Sélectionnez Confirmer pour ouvrir la fenêtre de déploiement.
- Spécifiez le nom du déploiement et modifiez d’autres paramètres par défaut en fonction de vos besoins.
- Sélectionnez Déployer.
- Vous arrivez dans la page des détails du déploiement. Sélectionnez Ouvrir dans le terrain de jeu.
- Sélectionnez Afficher le code pour obtenir des exemples de code qui permettront de consommer le modèle déployé dans votre application.
Inférence du modèle Azure OpenAI
Pour effectuer une inférence sur le modèle déployé, vous pouvez utiliser les exemples de jeux ou de code. Le terrain de jeu est une interface web qui vous permet d’interagir avec le modèle en temps réel. Vous pouvez utiliser le terrain de jeu pour tester le modèle avec différentes invites et voir les réponses du modèle.
Pour obtenir d’autres exemples d’utilisation du modèle déployé dans votre application, consultez les guides de démarrage rapide Azure OpenAI suivants :
- Prise en main des Assistants et de l’interpréteur de code dans le terrain de jeu
- Démarrage rapide du chat
Limites régionales de disponibilité et de quota d’un modèle
Pour les modèles Azure OpenAI, le quota par défaut pour les modèles varie selon le modèle et la région. Certains modèles peuvent n’être disponibles que dans certaines régions. Pour plus d’informations sur la disponibilité et les limites de quota, consultez Quotas et limites d’Azure OpenAI Service.
Quota pour le déploiement et l’inférence d’un modèle
Pour les modèles Azure OpenAI, le déploiement et l’inférence consomment un quota affecté à votre abonnement par région, par modèle en unités de jetons par minute (TPM). Lorsque vous vous inscrivez à Azure AI Foundry, vous recevez un quota par défaut pour la plupart des modèles disponibles. Ensuite, vous affectez un module TPM à chaque déploiement tel qu’il est créé, ce qui réduit le quota disponible pour ce modèle en fonction de la quantité que vous avez affectée. Vous pouvez continuer à créer des déploiements et à les affecter jusqu’à atteindre votre limite de quota.
Une fois que vous atteignez votre limite de quota, la seule façon de créer de nouveaux déploiements de ce modèle consiste à :
- Demandez plus de quota en envoyant un formulaire d’augmentation de quota.
- Ajustez le quota alloué sur d’autres modèles de déploiement afin de libérer des jetons pour les nouveaux déploiements dans le portail Azure OpenAI.
Pour en savoir plus sur le quota, consultez Quota Azure AI Foundry et Gérer le quota Azure OpenAI Service.
Contenu connexe
- En savoir plus sur ce que vous pouvez faire dans Azure AI Foundry
- Obtenez des réponses aux questions fréquentes dans l’article sur le FAQ Azure AI