Freigeben über


Importieren einer Azure AI Foundry-API

GILT FÜR: Alle API Management-Ebenen

Sie können KI-Modellendpunkte importieren, die in Azure AI Foundry in Ihre API-Verwaltungsinstanz als APIs bereitgestellt werden. Verwenden Sie KI-Gatewayrichtlinien und andere Funktionen in der API-Verwaltung, um die Integration zu vereinfachen, die Observierbarkeit zu verbessern und die Kontrolle über die Modellendpunkte zu verbessern.

Weitere Informationen zum Verwalten von KI-APIs in der API-Verwaltung:

Clientkompatibilitätsoptionen

DIE API-Verwaltung unterstützt zwei Clientkompatibilitätsoptionen für KI-APIs. Wählen Sie die Option aus, die für ihre Modellbereitstellung geeignet ist. Die Option bestimmt, wie Clients die API aufrufen und wie die API-Verwaltungsinstanz Anforderungen an den KI-Dienst weiterleitet.

  • Azure AI – Verwalten Sie Modellendpunkte in Azure AI Foundry, die über die Azure AI-Modell-Inference-API verfügbar gemacht werden.

    Clients rufen die Bereitstellung an einem /models-Endpunkt wie /my-model/models/chat/completions auf. Der Bereitstellungsname wird im Anforderungstext übergeben. Verwenden Sie diese Option, wenn Sie flexibel zwischen Modellen wechseln möchten, die über die Azure AI Model Inference-API und die in Azure OpenAI Service bereitgestellten Modelle verfügbar gemacht werden.

  • Azure OpenAI Service – Verwalten von Modellendpunkten, die in Azure OpenAI Service bereitgestellt werden.

    Clients rufen die Bereitstellung an einem /openai-Endpunkt wie /openai/deployments/my-deployment/chat/completions auf. Der Bereitstellungsname wird im Anforderungspfad übergeben. Verwenden Sie diese Option, wenn Ihr KI-Dienst nur Azure OpenAI-Dienstmodellbereitstellungen enthält.

Voraussetzungen

  • Eine bestehende API Management-Instanz. Erstellen Sie bitte eine, falls noch nicht geschehen.
  • Ein Azure AI-Dienst in Ihrem Abonnement mit mindestens einem bereitgestellten Modell. Beispiele sind Modelle, die in Azure AI Foundry oder Azure OpenAI Service bereitgestellt werden.

Importieren der AI Foundry-API mithilfe des Portals

Führen Sie die folgenden Schritte aus, um eine KI-API in die API-Verwaltung zu importieren.

Wenn Sie die API importieren, konfiguriert API Management automatisch Folgendes:

  • Vorgänge für jeden REST-API-Endpunkt der API
  • Eine vom System zugewiesene Identität mit den erforderlichen Berechtigungen für den Zugriff auf die KI-Dienstbereitstellung.
  • Eine Back-End-Ressource und eine Set-Back-End-Dienstrichtlinie, die API-Anforderungen zum AI-Dienstendpunkt leitet.
  • Authentifizierung für das Back-End mithilfe der vom System zugewiesenen verwalteten Identität der Instanz.
  • (optional) Richtlinien, mit denen Sie die API überwachen und verwalten können.

So importieren Sie eine AI Foundry-API in die API-Verwaltung:

  1. Navigieren Sie im Azure-Portal zu Ihrer API Management-Instanz.

  2. Wählen Sie im linken Menü unter APIs die Option APIs>+ API hinzufügen aus.

  3. Wählen Sie unter "Aus Azure-Ressource erstellen" die Option "Azure AI Foundry" aus.

    Screenshot der Erstellung einer openAI-kompatiblen API im Portal.

  4. Wählen Sie auf der Registerkarte "KI-Dienst auswählen " folgendes aus:

    1. Wählen Sie das Abonnement aus, in dem nach KI-Diensten gesucht werden soll. Um Informationen zu den Modellbereitstellungen in einem Dienst abzurufen, wählen Sie den Link "Bereitstellungen " neben dem Dienstnamen aus. Screenshot der Bereitstellungen für einen KI-Dienst im Portal.
    2. Wählen Sie einen KI-Dienst aus.
    3. Wählen Sie Weiteraus.
  5. Auf der Registerkarte "API konfigurieren ":

    1. Geben Sie einen Anzeigenamen und optional eine Beschreibung für die API ein.

    2. Geben Sie im Basispfad einen Pfad ein, den Ihre API-Verwaltungsinstanz für den Zugriff auf den Bereitstellungsendpunkt verwendet.

    3. Wählen Sie optional ein oder mehrere Produkte aus, die der API zugeordnet werden sollen.

    4. Wählen Sie in der Clientkompatibilität eine der folgenden Optionen basierend auf den Clienttypen aus, die Sie unterstützen möchten. Weitere Informationen finden Sie unter Clientkompatibilitätsoptionen .

      • Azure OpenAI – Wählen Sie diese Option aus, wenn Ihre Clients nur auf Azure OpenAI-Dienstmodellbereitstellungen zugreifen müssen.
      • Azure AI – Wählen Sie diese Option aus, wenn Ihre Clients auf andere Modelle in Azure AI Foundry zugreifen müssen.
    5. Wählen Sie Weiteraus.

      Screenshot der AI Foundry API-Konfiguration im Portal.

  6. Geben Sie optional auf der Registerkarte " Tokennutzung verwalten " Einstellungen ein, oder akzeptieren Sie Standardeinstellungen, die die folgenden Richtlinien definieren, um die API zu überwachen und zu verwalten:

  7. Geben Sie auf der Registerkarte " Semantisches Zwischenspeichern anwenden " optional Einstellungen ein, oder akzeptieren Sie Standardeinstellungen, die die Richtlinien definieren, um die Leistung zu optimieren und die Latenz für die API zu verringern:

  8. Geben Sie in der KI-Inhaltssicherheit optional Einstellungen ein oder akzeptieren Sie Standardeinstellungen, um den Azure AI Content Safety-Dienst so zu konfigurieren, dass Eingabeaufforderungen mit unsicherem Inhalt blockiert werden:

  9. Wählen Sie Überprüfen aus.

  10. Wählen Sie nach der Überprüfung Ihrer Einstellungen Erstellen aus.

Testen der KI-API

Um sicherzustellen, dass Ihre KI-API erwartungsgemäß funktioniert, testen Sie sie in der API-Verwaltungstestkonsole.

  1. Wählen Sie die API aus, die Sie im vorherigen Schritt erstellt haben.

  2. Wählen Sie die Registerkarte Testen aus.

  3. Wählen Sie einen Vorgang aus, der mit der Modellbereitstellung kompatibel ist. Auf der Seite werden Felder für Parameter und Header angezeigt.

  4. Geben Sie bei Bedarf Parameter und Header ein. Je nach Vorgang müssen Sie möglicherweise einen Anforderungstext konfigurieren oder aktualisieren.

    Hinweis

    In der Testkonsole füllt API Management automatisch einen Ocp-Apim-Subscription-Key-Header auf und konfiguriert den Abonnementschlüssel des integrierten All-Access-Abonnements. Dieser Schlüssel ermöglicht den Zugriff auf jede API in der API Management-Instanz. Optional können Sie den Ocp-Apim-Subscription-Key-Header anzeigen, indem Sie das Augensymbol neben der HTTP-Anforderung auswählen.

  5. Wählen Sie "Senden" aus.

    Wenn der Test erfolgreich ist, antwortet das Back-End mit einem erfolgreichen HTTP-Antwortcode und einigen Daten. Angefügt an die Antwort sind Tokennutzungsdaten, die Ihnen beim Überwachen und Verwalten des Sprachmodelltokenverbrauchs helfen.