Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’APPLIQUE À : tous les niveaux de Gestion des API
Vous pouvez importer des points de terminaison de modèle IA déployés dans Azure AI Foundry dans votre instance Gestion des API en tant qu’API. Utilisez des stratégies de passerelle IA et d’autres fonctionnalités dans Gestion des API pour simplifier l’intégration, améliorer l’observabilité et améliorer le contrôle des points de terminaison de modèle.
En savoir plus sur la gestion des API IA dans Gestion des API :
Options de compatibilité du client
Gestion des API prend en charge deux options de compatibilité client pour les API IA. Choisissez l’option appropriée pour votre déploiement de modèle. L’option détermine comment les clients appellent l’API et comment l’instance Gestion des API achemine les requêtes vers le service IA.
Azure AI - Gérer les points de terminaison de modèle dans Azure AI Foundry qui sont exposés via l’API d’inférence du modèle IA Azure.
Les clients appellent le déploiement sur un point de terminaison
/models
tel que/my-model/models/chat/completions
. Le nom du déploiement est transmis dans le corps de la requête. Utilisez cette option si vous souhaitez avoir la flexibilité de basculer entre les modèles exposés par l’API d’inférence de modèle d’Azure AI et ceux déployés dans Azure OpenAI Service.Service Azure OpenAI - Gérer les points de terminaison de modèle déployés dans Azure OpenAI Service.
Les clients appellent le déploiement sur un point de terminaison
/openai
tel que/openai/deployments/my-deployment/chat/completions
. Le nom du déploiement est transmis dans le chemin d’accès de la requête. Utilisez cette option si votre service IA inclut uniquement les déploiements de modèles de service Azure OpenAI.
Conditions préalables
- Une instance existante de gestion d’API. Si vous ne l’avez pas déjà fait, créez-en un.
- Un service Azure AI dans votre abonnement avec un ou plusieurs modèles déployés. Les exemples incluent des modèles déployés dans Azure AI Foundry ou Azure OpenAI Service.
Importer l’API AI Foundry à l’aide du portail
Procédez comme suit pour importer une API IA dans Gestion des API.
Lorsque vous importez l’API, Gestion des API configure automatiquement :
- Opérations pour chacun des points de terminaison de l'API REST
- Identité affectée par le système avec les autorisations nécessaires pour accéder au déploiement du service IA.
- Une ressource back-end et une stratégie set-backend-service qui dirige les demandes d’API vers le point de terminaison de service IA.
- Authentification auprès du serveur principal à l’aide de l’identité managée affectée par le système de l’instance.
- (facultatif) Stratégies pour vous aider à surveiller et à gérer l’API.
Pour importer une API AI Foundry dans Gestion des API :
Dans le portail Azure, accédez à votre instance Gestion des API.
Dans le menu de gauche, sous API, sélectionnez API>+ Ajouter une API.
Sous Créer à partir d’une ressource Azure, sélectionnez Azure AI Foundry.
Sous l’onglet Sélectionner un service IA :
- Sélectionnez l’abonnement dans lequel rechercher des services IA. Pour obtenir des informations sur les déploiements de modèles dans un service, sélectionnez le lien déploiements en regard du nom du service.
- Sélectionnez un service IA.
- Cliquez sur Suivant.
- Sélectionnez l’abonnement dans lequel rechercher des services IA. Pour obtenir des informations sur les déploiements de modèles dans un service, sélectionnez le lien déploiements en regard du nom du service.
Sous l’onglet Configurer l’API :
Entrez un Nom d’affichage et une Description facultative pour l’API.
Dans le chemin de base, entrez un chemin que votre instance Gestion des API utilise pour accéder au point de terminaison de déploiement.
Sélectionnez éventuellement un ou plusieurs produits à associer à l’API.
Dans la compatibilité du client, sélectionnez l’une des options suivantes en fonction des types de client que vous envisagez de prendre en charge. Pour plus d’informations, consultez les options de compatibilité du client .
- Azure OpenAI - Sélectionnez cette option si vos clients doivent uniquement accéder aux déploiements de modèles de service Azure OpenAI.
- Azure AI - Sélectionnez cette option si vos clients doivent accéder à d’autres modèles dans Azure AI Foundry.
Cliquez sur Suivant.
Sous l’onglet Gérer la consommation de jetons , entrez éventuellement des paramètres ou acceptez les paramètres par défaut qui définissent les stratégies suivantes pour faciliter la surveillance et la gestion de l’API :
Sous l’onglet Appliquer la mise en cache sémantique , entrez éventuellement des paramètres ou acceptez les valeurs par défaut qui définissent les stratégies pour optimiser les performances et réduire la latence pour l’API :
Sur la sécurité du contenu IA, entrez éventuellement des paramètres ou acceptez les paramètres par défaut pour configurer le service Azure AI Content Safety pour bloquer les invites avec du contenu non sécurisé :
Sélectionnez Révision.
Une fois que vos paramètres sont validés, sélectionnez Créer.
Tester l’API IA
Pour vous assurer que votre API IA fonctionne comme prévu, testez-la dans la console de test Gestion des API.
Sélectionnez l’API que vous avez créée à l’étape précédente.
Sélectionnez l’onglet Test.
Sélectionnez une opération compatible avec le déploiement du modèle. La page affiche des champs pour les paramètres et les en-têtes.
Entrez les paramètres et les en-têtes en fonction des besoins. Selon l’opération, vous devrez peut-être configurer ou mettre à jour un corps de requête.
Remarque
Dans la console de test, Gestion des API renseigne automatiquement un en-tête Ocp-Apim-Subscription-Key, et configure la clé d’abonnement de l’abonnement avec accès complet intégré. Cette clé permet d’accéder à toutes les API dans l’instance Gestion des API. Vous pouvez éventuellement afficher l’en-tête Ocp-Apim-Subscription-Key en sélectionnant l’icône « œil » en regard de la requête HTTP.
Sélectionnez Envoyer.
Lorsque le test réussit, le backend répond avec un code de réponse HTTP réussi et quelques données. Les données d’utilisation des jetons sont ajoutées à la réponse pour vous aider à surveiller et à gérer la consommation de jetons de votre modèle linguistique.
Contenu connexe
- Limitations de l’importation d’API
- Importer une spécification OpenAPI
- Importer une API SOAP
- Importer une API SOAP et la convertir en REST
- Importer une API de Service d'Application
- Importer une API d’application conteneur
- Importer une API WebSocket
- Importer une API GraphQL
- Importer un schéma GraphQL et configurer des résolveurs de champs
- Importer une API d’application de fonction
- Importer une API d’application logique
- Importer un service Service Fabric
- Importer une API Azure AI Foundry
- Importer une API Azure OpenAI
- Importer une API LLM
- Importer une API OData
- Importer des métadonnées OData de SAP
- Importer une API gRPC
- Modifier une API