Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
GILT FÜR: Alle API Management-Ebenen
Sie können KI-Modellendpunkte importieren, die in Azure AI Foundry in Ihre API-Verwaltungsinstanz als APIs bereitgestellt werden. Verwenden Sie KI-Gatewayrichtlinien und andere Funktionen in der API-Verwaltung, um die Integration zu vereinfachen, die Observierbarkeit zu verbessern und die Kontrolle über die Modellendpunkte zu verbessern.
Weitere Informationen zum Verwalten von KI-APIs in der API-Verwaltung:
Clientkompatibilitätsoptionen
DIE API-Verwaltung unterstützt zwei Clientkompatibilitätsoptionen für KI-APIs. Wählen Sie die Option aus, die für ihre Modellbereitstellung geeignet ist. Die Option bestimmt, wie Clients die API aufrufen und wie die API-Verwaltungsinstanz Anforderungen an den KI-Dienst weiterleitet.
Azure AI – Verwalten Sie Modellendpunkte in Azure AI Foundry, die über die Azure AI-Modell-Inference-API verfügbar gemacht werden.
Clients rufen die Bereitstellung an einem
/models
-Endpunkt wie/my-model/models/chat/completions
auf. Der Bereitstellungsname wird im Anforderungstext übergeben. Verwenden Sie diese Option, wenn Sie flexibel zwischen Modellen wechseln möchten, die über die Azure AI Model Inference-API und die in Azure OpenAI Service bereitgestellten Modelle verfügbar gemacht werden.Azure OpenAI Service – Verwalten von Modellendpunkten, die in Azure OpenAI Service bereitgestellt werden.
Clients rufen die Bereitstellung an einem
/openai
-Endpunkt wie/openai/deployments/my-deployment/chat/completions
auf. Der Bereitstellungsname wird im Anforderungspfad übergeben. Verwenden Sie diese Option, wenn Ihr KI-Dienst nur Azure OpenAI-Dienstmodellbereitstellungen enthält.
Voraussetzungen
- Eine bestehende API Management-Instanz. Erstellen Sie bitte eine, falls noch nicht geschehen.
- Ein Azure AI-Dienst in Ihrem Abonnement mit mindestens einem bereitgestellten Modell. Beispiele sind Modelle, die in Azure AI Foundry oder Azure OpenAI Service bereitgestellt werden.
Importieren der AI Foundry-API mithilfe des Portals
Führen Sie die folgenden Schritte aus, um eine KI-API in die API-Verwaltung zu importieren.
Wenn Sie die API importieren, konfiguriert API Management automatisch Folgendes:
- Vorgänge für jeden REST-API-Endpunkt der API
- Eine vom System zugewiesene Identität mit den erforderlichen Berechtigungen für den Zugriff auf die KI-Dienstbereitstellung.
- Eine Back-End-Ressource und eine Set-Back-End-Dienstrichtlinie, die API-Anforderungen zum AI-Dienstendpunkt leitet.
- Authentifizierung für das Back-End mithilfe der vom System zugewiesenen verwalteten Identität der Instanz.
- (optional) Richtlinien, mit denen Sie die API überwachen und verwalten können.
So importieren Sie eine AI Foundry-API in die API-Verwaltung:
Navigieren Sie im Azure-Portal zu Ihrer API Management-Instanz.
Wählen Sie im linken Menü unter APIs die Option APIs>+ API hinzufügen aus.
Wählen Sie unter "Aus Azure-Ressource erstellen" die Option "Azure AI Foundry" aus.
Wählen Sie auf der Registerkarte "KI-Dienst auswählen " folgendes aus:
- Wählen Sie das Abonnement aus, in dem nach KI-Diensten gesucht werden soll. Um Informationen zu den Modellbereitstellungen in einem Dienst abzurufen, wählen Sie den Link "Bereitstellungen " neben dem Dienstnamen aus.
- Wählen Sie einen KI-Dienst aus.
- Wählen Sie Weiteraus.
- Wählen Sie das Abonnement aus, in dem nach KI-Diensten gesucht werden soll. Um Informationen zu den Modellbereitstellungen in einem Dienst abzurufen, wählen Sie den Link "Bereitstellungen " neben dem Dienstnamen aus.
Auf der Registerkarte "API konfigurieren ":
Geben Sie einen Anzeigenamen und optional eine Beschreibung für die API ein.
Geben Sie im Basispfad einen Pfad ein, den Ihre API-Verwaltungsinstanz für den Zugriff auf den Bereitstellungsendpunkt verwendet.
Wählen Sie optional ein oder mehrere Produkte aus, die der API zugeordnet werden sollen.
Wählen Sie in der Clientkompatibilität eine der folgenden Optionen basierend auf den Clienttypen aus, die Sie unterstützen möchten. Weitere Informationen finden Sie unter Clientkompatibilitätsoptionen .
- Azure OpenAI – Wählen Sie diese Option aus, wenn Ihre Clients nur auf Azure OpenAI-Dienstmodellbereitstellungen zugreifen müssen.
- Azure AI – Wählen Sie diese Option aus, wenn Ihre Clients auf andere Modelle in Azure AI Foundry zugreifen müssen.
Wählen Sie Weiteraus.
Geben Sie optional auf der Registerkarte " Tokennutzung verwalten " Einstellungen ein, oder akzeptieren Sie Standardeinstellungen, die die folgenden Richtlinien definieren, um die API zu überwachen und zu verwalten:
Geben Sie auf der Registerkarte " Semantisches Zwischenspeichern anwenden " optional Einstellungen ein, oder akzeptieren Sie Standardeinstellungen, die die Richtlinien definieren, um die Leistung zu optimieren und die Latenz für die API zu verringern:
Geben Sie in der KI-Inhaltssicherheit optional Einstellungen ein oder akzeptieren Sie Standardeinstellungen, um den Azure AI Content Safety-Dienst so zu konfigurieren, dass Eingabeaufforderungen mit unsicherem Inhalt blockiert werden:
Wählen Sie Überprüfen aus.
Wählen Sie nach der Überprüfung Ihrer Einstellungen Erstellen aus.
Testen der KI-API
Um sicherzustellen, dass Ihre KI-API erwartungsgemäß funktioniert, testen Sie sie in der API-Verwaltungstestkonsole.
Wählen Sie die API aus, die Sie im vorherigen Schritt erstellt haben.
Wählen Sie die Registerkarte Testen aus.
Wählen Sie einen Vorgang aus, der mit der Modellbereitstellung kompatibel ist. Auf der Seite werden Felder für Parameter und Header angezeigt.
Geben Sie bei Bedarf Parameter und Header ein. Je nach Vorgang müssen Sie möglicherweise einen Anforderungstext konfigurieren oder aktualisieren.
Hinweis
In der Testkonsole füllt API Management automatisch einen Ocp-Apim-Subscription-Key-Header auf und konfiguriert den Abonnementschlüssel des integrierten All-Access-Abonnements. Dieser Schlüssel ermöglicht den Zugriff auf jede API in der API Management-Instanz. Optional können Sie den Ocp-Apim-Subscription-Key-Header anzeigen, indem Sie das Augensymbol neben der HTTP-Anforderung auswählen.
Wählen Sie "Senden" aus.
Wenn der Test erfolgreich ist, antwortet das Back-End mit einem erfolgreichen HTTP-Antwortcode und einigen Daten. Angefügt an die Antwort sind Tokennutzungsdaten, die Ihnen beim Überwachen und Verwalten des Sprachmodelltokenverbrauchs helfen.
Verwandte Inhalte
- Einschränkungen beim API-Import
- Importieren einer OpenAPI-Spezifikation
- Importieren einer SOAP-API
- Importieren einer SOAP-API und Konvertieren in REST
- Importieren einer App Service-API
- Importieren einer Container-App-API
- Importieren einer WebSocket-API
- Importieren einer GraphQL-API
- Importieren eines GraphQL-Schemas und Einrichten von Feldauflösern
- Importieren einer Funktions-App-API
- Importieren einer Logik-App-API
- Importieren Sie einen Service Fabric-Dienst
- Importieren einer Azure AI Foundry-API
- Importieren einer Azure OpenAI-API
- Importieren einer LLM-API
- Importieren einer OData-API
- Importieren von SAP OData-Metadaten
- Importieren einer gRPC-API
- Bearbeiten von APIs