Partager via


Importer une API Azure AI Foundry

S’APPLIQUE À : tous les niveaux de Gestion des API

Vous pouvez importer des points de terminaison de modèle IA déployés dans Azure AI Foundry dans votre instance Gestion des API en tant qu’API. Utilisez des stratégies de passerelle IA et d’autres fonctionnalités dans Gestion des API pour simplifier l’intégration, améliorer l’observabilité et améliorer le contrôle des points de terminaison de modèle.

En savoir plus sur la gestion des API IA dans Gestion des API :

Options de compatibilité du client

Gestion des API prend en charge deux options de compatibilité client pour les API IA. Choisissez l’option appropriée pour votre déploiement de modèle. L’option détermine comment les clients appellent l’API et comment l’instance Gestion des API achemine les requêtes vers le service IA.

  • Azure AI - Gérer les points de terminaison de modèle dans Azure AI Foundry qui sont exposés via l’API d’inférence du modèle IA Azure.

    Les clients appellent le déploiement sur un point de terminaison /models tel que /my-model/models/chat/completions. Le nom du déploiement est transmis dans le corps de la requête. Utilisez cette option si vous souhaitez avoir la flexibilité de basculer entre les modèles exposés par l’API d’inférence de modèle d’Azure AI et ceux déployés dans Azure OpenAI Service.

  • Service Azure OpenAI - Gérer les points de terminaison de modèle déployés dans Azure OpenAI Service.

    Les clients appellent le déploiement sur un point de terminaison /openai tel que /openai/deployments/my-deployment/chat/completions. Le nom du déploiement est transmis dans le chemin d’accès de la requête. Utilisez cette option si votre service IA inclut uniquement les déploiements de modèles de service Azure OpenAI.

Conditions préalables

  • Une instance existante de gestion d’API. Si vous ne l’avez pas déjà fait, créez-en un.
  • Un service Azure AI dans votre abonnement avec un ou plusieurs modèles déployés. Les exemples incluent des modèles déployés dans Azure AI Foundry ou Azure OpenAI Service.

Importer l’API AI Foundry à l’aide du portail

Procédez comme suit pour importer une API IA dans Gestion des API.

Lorsque vous importez l’API, Gestion des API configure automatiquement :

  • Opérations pour chacun des points de terminaison de l'API REST
  • Identité affectée par le système avec les autorisations nécessaires pour accéder au déploiement du service IA.
  • Une ressource back-end et une stratégie set-backend-service qui dirige les demandes d’API vers le point de terminaison de service IA.
  • Authentification auprès du serveur principal à l’aide de l’identité managée affectée par le système de l’instance.
  • (facultatif) Stratégies pour vous aider à surveiller et à gérer l’API.

Pour importer une API AI Foundry dans Gestion des API :

  1. Dans le portail Azure, accédez à votre instance Gestion des API.

  2. Dans le menu de gauche, sous API, sélectionnez API>+ Ajouter une API.

  3. Sous Créer à partir d’une ressource Azure, sélectionnez Azure AI Foundry.

    Capture d’écran de la création d’une API compatible OpenAI dans le portail.

  4. Sous l’onglet Sélectionner un service IA :

    1. Sélectionnez l’abonnement dans lequel rechercher des services IA. Pour obtenir des informations sur les déploiements de modèles dans un service, sélectionnez le lien déploiements en regard du nom du service. Capture d’écran des déploiements d’un service IA dans le portail.
    2. Sélectionnez un service IA.
    3. Cliquez sur Suivant.
  5. Sous l’onglet Configurer l’API :

    1. Entrez un Nom d’affichage et une Description facultative pour l’API.

    2. Dans le chemin de base, entrez un chemin que votre instance Gestion des API utilise pour accéder au point de terminaison de déploiement.

    3. Sélectionnez éventuellement un ou plusieurs produits à associer à l’API.

    4. Dans la compatibilité du client, sélectionnez l’une des options suivantes en fonction des types de client que vous envisagez de prendre en charge. Pour plus d’informations, consultez les options de compatibilité du client .

      • Azure OpenAI - Sélectionnez cette option si vos clients doivent uniquement accéder aux déploiements de modèles de service Azure OpenAI.
      • Azure AI - Sélectionnez cette option si vos clients doivent accéder à d’autres modèles dans Azure AI Foundry.
    5. Cliquez sur Suivant.

      Capture d’écran de la configuration de l’API AI Foundry dans le portail.

  6. Sous l’onglet Gérer la consommation de jetons , entrez éventuellement des paramètres ou acceptez les paramètres par défaut qui définissent les stratégies suivantes pour faciliter la surveillance et la gestion de l’API :

  7. Sous l’onglet Appliquer la mise en cache sémantique , entrez éventuellement des paramètres ou acceptez les valeurs par défaut qui définissent les stratégies pour optimiser les performances et réduire la latence pour l’API :

  8. Sur la sécurité du contenu IA, entrez éventuellement des paramètres ou acceptez les paramètres par défaut pour configurer le service Azure AI Content Safety pour bloquer les invites avec du contenu non sécurisé :

  9. Sélectionnez Révision.

  10. Une fois que vos paramètres sont validés, sélectionnez Créer.

Tester l’API IA

Pour vous assurer que votre API IA fonctionne comme prévu, testez-la dans la console de test Gestion des API.

  1. Sélectionnez l’API que vous avez créée à l’étape précédente.

  2. Sélectionnez l’onglet Test.

  3. Sélectionnez une opération compatible avec le déploiement du modèle. La page affiche des champs pour les paramètres et les en-têtes.

  4. Entrez les paramètres et les en-têtes en fonction des besoins. Selon l’opération, vous devrez peut-être configurer ou mettre à jour un corps de requête.

    Remarque

    Dans la console de test, Gestion des API renseigne automatiquement un en-tête Ocp-Apim-Subscription-Key, et configure la clé d’abonnement de l’abonnement avec accès complet intégré. Cette clé permet d’accéder à toutes les API dans l’instance Gestion des API. Vous pouvez éventuellement afficher l’en-tête Ocp-Apim-Subscription-Key en sélectionnant l’icône « œil » en regard de la requête HTTP.

  5. Sélectionnez Envoyer.

    Lorsque le test réussit, le backend répond avec un code de réponse HTTP réussi et quelques données. Les données d’utilisation des jetons sont ajoutées à la réponse pour vous aider à surveiller et à gérer la consommation de jetons de votre modèle linguistique.