Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’APPLIQUE À : tous les niveaux de Gestion des API
Vous pouvez importer des points de terminaison de modèle de langage compatibles OpenAI dans votre instance Gestion des API en tant qu’API. Par exemple, vous pouvez gérer un LLM que vous auto-hébergez ou qui est hébergé sur un fournisseur d’inférence autre que les services Azure AI. Utilisez des stratégies de passerelle IA et d’autres fonctionnalités dans Gestion des API pour simplifier l’intégration, améliorer l’observabilité et améliorer le contrôle des points de terminaison de modèle.
En savoir plus sur la gestion des API IA dans Gestion des API :
Types d’API de modèle de langage
Gestion des API prend en charge deux types d’API de modèle de langage pour ce scénario. Choisissez l’option appropriée pour votre déploiement de modèle. L’option détermine comment les clients appellent l’API et comment l’instance Gestion des API achemine les requêtes vers le service IA.
Compatible OpenAI - Points de terminaison de modèle de langage compatibles avec l’API d’OpenAI. Les exemples incluent certains modèles exposés par des fournisseurs d'inférence, tels que Hugging Face Text Generation Inference (TGI).
Gestion des API configure un point de terminaison de saisie semi-automatique compatible OpenAI.
Passthrough - Autres points de terminaison de modèle de langage qui ne sont pas compatibles avec l’API d’OpenAI. Les exemples incluent des modèles déployés dans Amazon Bedrock ou d’autres fournisseurs.
Gestion des API configure des opérations génériques pour les verbes HTTP courants. Les clients peuvent ajouter des chemins aux opérations génériques, et Gestion des API transmet les requêtes au serveur principal.
Conditions préalables
- Une instance existante de gestion d’API. Si vous ne l’avez pas déjà fait, créez-en un.
- Un déploiement de modèle de langage auto-hébergé ou non fourni par Azure avec un point de terminaison d’API.
Importer l’API du modèle de langage à l’aide du portail
Pour importer une API de modèle de langage dans Gestion des API :
Dans le portail Azure, accédez à votre instance Gestion des API.
Dans le menu de gauche, sous API, sélectionnez API>+ Ajouter une API.
Sous Définir une nouvelle API, sélectionnez API De modèle de langage.
Sous l’onglet Configurer l’API :
- Entrez un Nom d’affichage et une Description facultative pour l’API.
- Entrez l’URL du point de terminaison de l’API LLM.
- Sélectionnez éventuellement un ou plusieurs produits à associer à l’API.
- Dans Path, ajoutez un chemin d’accès que votre instance Gestion des API utilise pour accéder aux points de terminaison de l’API LLM.
- Dans Type, sélectionnez Créer une API OpenAI ou Créer une API passthrough. Pour plus d’informations, consultez les types d’API du modèle de langage .
- Dans la clé Access, entrez le nom d’en-tête d’autorisation et la clé API utilisés pour accéder à l’API LLM, si nécessaire.
- Cliquez sur Suivant.
Sous l’onglet Gérer la consommation de jetons , entrez éventuellement des paramètres ou acceptez les paramètres par défaut qui définissent les stratégies suivantes pour faciliter la surveillance et la gestion de l’API :
Sous l’onglet Appliquer la mise en cache sémantique , entrez éventuellement des paramètres ou acceptez les valeurs par défaut qui définissent les stratégies pour optimiser les performances et réduire la latence pour l’API :
Sur la sécurité du contenu IA, entrez éventuellement des paramètres ou acceptez les paramètres par défaut pour configurer le service Azure AI Content Safety pour bloquer les invites avec du contenu non sécurisé :
Sélectionnez Révision.
Une fois que vos paramètres sont validés, sélectionnez Créer.
Tester l’API LLM
Pour vous assurer que votre API LLM fonctionne comme prévu, testez-la dans la console de test Gestion des API.
Sélectionnez l’API que vous avez créée à l’étape précédente.
Sélectionnez l’onglet Test.
Sélectionnez une opération compatible avec le déploiement du modèle. La page affiche des champs pour les paramètres et les en-têtes.
Entrez les paramètres et les en-têtes en fonction des besoins. Selon l’opération, vous devrez peut-être configurer ou mettre à jour un corps de requête.
Remarque
Dans la console de test, Gestion des API renseigne automatiquement un en-tête Ocp-Apim-Subscription-Key, et configure la clé d’abonnement de l’abonnement avec accès complet intégré. Cette clé permet d’accéder à toutes les API dans l’instance Gestion des API. Vous pouvez éventuellement afficher l’en-tête Ocp-Apim-Subscription-Key en sélectionnant l’icône « œil » en regard de la requête HTTP.
Sélectionnez Envoyer.
Lorsque le test réussit, le backend répond avec un code de réponse HTTP réussi et quelques données. Les données d’utilisation des jetons sont ajoutées à la réponse pour vous aider à surveiller et à gérer la consommation de jetons de votre modèle linguistique.
Contenu connexe
- Limitations de l’importation d’API
- Importer une spécification OpenAPI
- Importer une API SOAP
- Importer une API SOAP et la convertir en REST
- Importer une API de Service d'Application
- Importer une API d’application conteneur
- Importer une API WebSocket
- Importer une API GraphQL
- Importer un schéma GraphQL et configurer des résolveurs de champs
- Importer une API d’application de fonction
- Importer une API d’application logique
- Importer un service Service Fabric
- Importer une API Azure AI Foundry
- Importer une API Azure OpenAI
- Importer une API LLM
- Importer une API OData
- Importer des métadonnées OData de SAP
- Importer une API gRPC
- Modifier une API