Partage via


Découvrir comment déployer des modèles Azure OpenAI avec Azure AI Studio

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Dans cet article, vous allez apprendre à créer des modèles de déploiements de Azure OpenAI dans Azure AI Studio.

Azure OpenAI Service offre un ensemble diversifié de modèles avec des fonctionnalités variées et à des prix différents. Lorsque vous déployez des modèles Azure OpenAI dans Azure AI Studio, vous pouvez utiliser les déploiements, à l’aide d’un flux d’invite ou d’un autre outil. La disponibilité des modèles varie selon les régions. Pour en savoir plus sur les détails de chaque modèle, consultez Modèles Azure OpenAI Service.

Pour modifier un modèle Azure OpenAI et interagir avec celui-ci dans le terrain de jeu Azure AI Studio, vous devez d’abord déployer un modèle Azure OpenAI de base sur votre projet. Une fois que le modèle est déployé et disponible dans votre projet, vous pouvez consommer son point de terminaison d’API REST tel quel ou personnaliser davantage avec vos propres données et autres composants (incorporations, index, etc.).

Déployer un modèle Azure OpenAI à partir du catalogue de modèles

Suivez les étapes ci-dessous pour déployer un modèle Azure OpenAI, par exemple gpt-4 sur un point de terminaison en temps réel à partir du catalogue de modèles AI Studio :

  1. Connectez-vous à AI Studio et accédez à la page Accueil .

  2. Sélectionnez catalogue de modèles dans la barre latérale gauche.

  3. Dans le filtre Collections, sélectionnez Azure OpenAI.

    Capture d’écran montrant comment filtrer les modèles Azure OpenAI dans le catalogue.

  4. Sélectionnez un modèle tel que gpt-4 dans la collection Azure OpenAI.

  5. Sélectionnez Déployer pour ouvrir la fenêtre de déploiement.

  6. Sélectionnez le hub sur lequel vous souhaitez déployer le modèle. Si vous n’avez pas de hub, vous pouvez en créer un.

  7. Spécifiez le nom du déploiement et modifiez d’autres paramètres par défaut en fonction de vos besoins.

  8. Sélectionnez Déployer.

  9. Vous arrivez dans la page des détails du déploiement. Sélectionnez Ouvrir dans le terrain de jeu.

  10. Sélectionnez Afficher le code pour obtenir des exemples de code qui permettront de consommer le modèle déployé dans votre application.

Déployer un modèle Azure OpenAI à partir de votre projet

Vous pouvez également lancer le déploiement à partir de votre projet dans AI Studio.

  1. Accédez à votre projet dans AI Studio.
  2. Sélectionnez Components>Deployments.
  3. Sélectionnez + Déployer le modèle.
  4. Dans le filtre Collections, sélectionnez Azure OpenAI.
  5. Sélectionnez un modèle tel que gpt-4 dans la collection Azure OpenAI.
  6. Sélectionnez Confirmer pour ouvrir la fenêtre de déploiement.
  7. Spécifiez le nom du déploiement et modifiez d’autres paramètres par défaut en fonction de vos besoins.
  8. Sélectionnez Déployer.
  9. Vous arrivez dans la page des détails du déploiement. Sélectionnez Ouvrir dans le terrain de jeu.
  10. Sélectionnez Afficher le code pour obtenir des exemples de code qui permettront de consommer le modèle déployé dans votre application.

Inférence du modèle Azure OpenAI

Pour effectuer une inférence sur le modèle déployé, vous pouvez utiliser les exemples de jeux ou de code. Le terrain de jeu est une interface web qui vous permet d’interagir avec le modèle en temps réel. Vous pouvez utiliser le terrain de jeu pour tester le modèle avec différentes invites et voir les réponses du modèle.

Pour obtenir d’autres exemples d’utilisation du modèle déployé dans votre application, consultez les guides de démarrage rapide Azure OpenAI suivants :

Limites régionales de disponibilité et de quota d’un modèle

Pour les modèles Azure OpenAI, le quota par défaut pour les modèles varie selon le modèle et la région. Certains modèles peuvent n’être disponibles que dans certaines régions. Pour plus d’informations sur la disponibilité et les limites de quota, consultez Quotas et limites d’Azure OpenAI Service.

Quota pour le déploiement et l’inférence d’un modèle

Pour les modèles Azure OpenAI, le déploiement et l’inférence consomment un quota affecté à votre abonnement par région, par modèle en unités de jetons par minute (TPM). Lorsque vous vous inscrivez à Azure AI Studio, vous recevez un quota par défaut pour la plupart des modèles disponibles. Ensuite, vous affectez un module TPM à chaque déploiement tel qu’il est créé, ce qui réduit le quota disponible pour ce modèle en fonction de la quantité que vous avez affectée. Vous pouvez continuer à créer des déploiements et à les affecter jusqu’à atteindre votre limite de quota.

Une fois que vous atteignez votre limite de quota, la seule façon de créer de nouveaux déploiements de ce modèle consiste à :

Pour en savoir plus sur le quota, consultez quota Azure AI Studio et Gérer le quota azure OpenAI Service.