Teilen über


Bereitstellen von Azure OpenAI-Modellen mit Azure KI Studio

Wichtig

Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.

In diesem Artikel erfahren Sie, wie Sie Azure OpenAI-Modellimplementierungen in Azure KI Studio erstellen.

Azure OpenAI Service bietet eine Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Wenn Sie Azure OpenAI-Modelle in Azure KI Studio bereitstellen, können Sie die Bereitstellungen mithilfe des Eingabeaufforderungsflusses oder eines anderen Tools nutzen. Die Modellverfügbarkeit variiert je nach Region. Weitere Informationen zu den Details der einzelnen Modelle finden Sie unter Azure OpenAI Service-Modelle.

Um ein Azure OpenAI-Modell im Azure KI Studio-Playground zu ändern und mit diesem zu interagieren, müssen Sie zuerst ein Azure OpenAI-Basismodell für Ihr Projekt bereitstellen. Sobald das Modell in Ihrem Projekt bereitgestellt und verfügbar ist, können Sie den REST-API-Endpunkt wie vorhanden nutzen oder mit Ihren eigenen Daten und anderen Komponenten (Einbettungen, Indizes usw.) weiter anpassen.

Bereitstellen eines Azure OpenAI-Modells aus dem Modellkatalog

Führen Sie die folgenden Schritte aus, um ein Azure OpenAI-Modell wie gpt-4 auf einem Echtzeitendpunkt aus dem KI Studio-Modellkatalog bereitzustellen:

  1. Melden Sie sich bei KI Studio an, und wechseln Sie zur Homepage.

  2. Wählen Sie Modellkatalog auf der linken Randleiste aus.

  3. Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.

    Screenshot: Filtern nach OpenAI-Modellen im Katalog.

  4. Wählen Sie ein Modell wie gpt-4 aus der Azure OpenAI-Sammlung aus.

  5. Wählen Sie Bereitstellen aus, um das Bereitstellungsfenster zu starten.

  6. Wählen Sie den Hub aus, für den Sie das Modell bereitstellen möchten. Falls Sie keinen Hub haben, können Sie einen erstellen.

  7. Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.

  8. Klicken Sie auf Bereitstellen.

  9. Sie gelangen zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.

  10. Wählen Sie Code anzeigen aus, um Codebeispiele abzurufen, die zum Verwenden des bereitgestellten Modells in Ihrer Anwendung verwendet werden können.

Bereitstellen eines Azure OpenAI-Modells aus Ihrem Projekt

Alternativ können Sie die Bereitstellung initiieren, indem Sie mit Ihrem Projekt in KI Studio beginnen.

  1. Navigieren Sie zu Ihrem Projekt in KI Studio.
  2. Wählen Sie Komponenten>Bereitstellungen aus.
  3. Wählen Sie + Modell bereitstellen aus.
  4. Wählen Sie im Filter Sammlungen die Option Azure OpenAI aus.
  5. Wählen Sie ein Modell wie gpt-4 aus der Azure OpenAI-Sammlung aus.
  6. Wählen Sie Bestätigen aus, um das Bereitstellungsfenster zu starten.
  7. Geben Sie den Bereitstellungsnamen an, und ändern Sie andere Standardeinstellungen je nach Ihren Anforderungen.
  8. Klicken Sie auf Bereitstellen.
  9. Sie gelangen zur Seite mit den Bereitstellungsdetails. Wählen Sie In Playground öffnen aus.
  10. Wählen Sie Code anzeigen aus, um Codebeispiele abzurufen, die zum Verwenden des bereitgestellten Modells in Ihrer Anwendung verwendet werden können.

Rückschlüsse des Azure OpenAI-Modells

Um Rückschlüsse für das bereitgestellte Modell durchzuführen, können Sie den Playground oder Codebeispiele verwenden. Der Playground ist eine webbasierte Schnittstelle, über die Sie in Echtzeit mit dem Modell interagieren können. Sie können den Playground verwenden, um das Modell mit unterschiedlichen Eingabeaufforderungen zu testen und die Antworten des Modells anzuzeigen.

Weitere Beispiele für die Nutzung des bereitgestellten Modells in Ihrer Anwendung finden Sie in den folgenden Azure OpenAI-Schnellstarts:

Regionale Verfügbarkeits- und Kontingentbeschränkungen eines Modells

Bei Azure OpenAI-Modellen variiert das Standardkontingent für Modelle je nach Modell und Region. Bestimmte Modelle sind möglicherweise nur in einigen Regionen verfügbar. Weitere Informationen zur Verfügbarkeit und Kontingentgrenzen finden Sie unter Kontingente und Grenzwerte in Azure OpenAI Service.

Kontingent für die Bereitstellung und Ableitung eines Modells

Für Azure OpenAI-Modelle verwendet die Bereitstellung und Ableitung Kontingente, die Ihrem Abonnement pro Region zugewiesen sind, pro Modell in Einheiten von Token-pro-Minuten (TPM). Wenn Sie sich für Azure KI Studio registrieren, erhalten Sie das Standardkontingent für die meisten verfügbaren Modelle. Anschließend weisen Sie jeder Bereitstellung TPM zu, während sie erstellt wird, wodurch das verfügbare Kontingent für dieses Modell um den von Ihnen zugewiesenen Betrag reduziert wird. Sie können weiterhin Bereitstellungen erstellen und ihnen TPM zuweisen, bis Sie Ihr Kontingentlimit erreicht haben.

Sobald Sie ihr Kontingentlimit erreicht haben, ist die einzige Möglichkeit, neue Bereitstellungen dieses Modells zu erstellen:

Weitere Informationen zum Kontingent finden Sie unter Azure KI Studio-Kontingent und Verwalten des Azure OpenAI Service-Kontingents.