Freigeben über


Verwenden von Standardbereitstellungen aus einem anderen Azure AI Foundry-Projekt oder -Hub

In diesem Artikel erfahren Sie, wie Sie eine vorhandene Standardbereitstellung in einem anderen Projekt oder Hub konfigurieren als die, die zum Erstellen der Bereitstellung verwendet wurde.

Wichtig

Modelle, die sich in der Vorschau befinden, werden auf ihren Modellkarten im Modellkatalog als Vorschau gekennzeichnet.

Bestimmte Modelle im Modellkatalog können als Standardbereitstellungen bereitgestellt werden. Diese Art von Bereitstellung bietet eine Möglichkeit, Modelle als API zu nutzen, ohne sie in Ihrem Abonnement zu hosten, während die Unternehmenssicherheit und Compliance beibehalten werden, die Organisationen benötigen. Für diese Bereitstellungsoption ist kein Kontingent aus Ihrem Abonnement erforderlich.

Die Notwendigkeit, einen Standardbereitstellungsendpunkt in einem anderen Projekt oder Hub zu nutzen als der, der zum Erstellen der Bereitstellung verwendet wurde, kann in Situationen wie den folgenden auftreten:

  • Sie möchten Ihre Bereitstellungen in einem bestimmten Projekt oder Hub zentralisieren und in verschiedenen Projekten oder Hubs in Ihrer Organisation verwenden.
  • Sie müssen ein Modell in einem Hub in einer bestimmten Azure-Region bereitstellen, in der eine serverlose Bereitstellung für dieses Modell verfügbar ist. Sie müssen es jedoch in einer anderen Region nutzen, in der die serverlose Bereitstellung für die jeweiligen Modelle nicht verfügbar ist.

Voraussetzungen

  • Ein Azure-Abonnement mit einer gültigen Zahlungsmethode. Kostenlose Versionen oder Testversionen von Azure-Abonnements funktionieren nicht. Wenn Sie noch kein Azure-Abonnement haben, erstellen Sie zunächst ein kostenpflichtiges Azure-Konto.

  • Ein Azure AI Foundry-Hub, wenn Sie ein hubbasiertes Projekt verwenden. Ein Foundry-Projekt verwendet keinen Hub. Weitere Informationen finden Sie unter Project-Typen.

  • Wenn Sie kein Projekt haben, erstellen Sie ein Hub-basiertes Projekt.

  • Ein als Standardbereitstellung bereitgestelltes Modell In diesem Artikel wird davon ausgegangen, dass Sie bereits das Modell Meta-Llama-3-8B-Instruct bereitgestellt haben. Informationen zum Bereitstellen dieses Modells als Standardbereitstellung finden Sie unter Bereitstellen von Modellen als Standardbereitstellungen.

  • Für die Arbeit mit Azure KI Foundry müssen Sie die folgende Software installieren:

    Sie können einen beliebigen kompatiblen Webbrowser verwenden, um in Azure KI Foundry zu navigieren.

Standardmäßige Bereitstellungsendpunktverbindung erstellen

Führen Sie folgende Schritte aus, um eine Verbindung zu erstellen:

  1. Stellen Sie eine Verbindung mit dem Projekt oder Hub her, in dem der Endpunkt bereitgestellt wurde:

    Tipp

    Da Sie den linken Bereich im Azure AI Foundry-Portal anpassen können, werden möglicherweise unterschiedliche Elemente angezeigt als in diesen Schritten. Wenn Sie nicht sehen, wonach Sie suchen, wählen Sie ... Mehr am unteren Rand des linken Bereichs.

    Wechseln Sie zu Azure KI Foundry, und navigieren Sie zu dem Projekt, in dem der Endpunkt bereitgestellt wurde, mit dem Sie eine Verbindung herstellen möchten.

  2. Rufen Sie die URL und die Anmeldeinformationen des Endpunkts ab, mit dem Sie eine Verbindung herstellen möchten. In diesem Beispiel rufen Sie die Details für einen Endpunkt mit dem Namen meta-llama3-8b-qwerty ab.

    1. Wechseln Sie auf der linken Seitenleiste Ihres Projekts im Azure KI Foundry-Portal zu Meine Ressourcen>Modelle + Endpunkte, um die Liste der Bereitstellungen im Projekt anzuzeigen.

    2. Wählen Sie die Bereitstellung aus, mit der Sie eine Verbindung herstellen möchten.

    3. Kopieren Sie die Werte für Ziel-URI und Schlüssel.

  3. Stellen Sie nun eine Verbindung mit dem Projekt oder Hub her, in dem Sie die Verbindung erstellen möchten:

    Gehen Sie zu dem Projekt, in dem die Verbindung hergestellt werden soll.

  4. Erstellen Sie die Verbindung im Projekt:

    1. Wechseln Sie in Ihrem Projekt im Azure KI Foundry-Portal zum unteren Teil der linken Randleiste, und wählen Sie Management Center aus.

    2. Wählen Sie auf der linken Randleiste des Verwaltungscenters Verbundene Ressourcen aus.

    3. Wählen Sie Neue Verbindung.

    4. Wählen Sie Serverloses Modell aus.

    5. Fügen Sie in Ziel-URI den Wert ein, den Sie zuvor kopiert haben.

    6. Fügen Sie in Schlüssel den Wert ein, den Sie zuvor kopiert haben.

    7. Benennen Sie die Verbindung – in diesem Fall mit meta-llama3-8b-connection.

    8. Wählen Sie Verbindung hinzufügen aus.

  5. Zu diesem Zeitpunkt steht die Verbindung für die Nutzung zur Verfügung.

  6. So überprüfen Sie, ob die Verbindung funktioniert

    1. Kehren Sie zu Ihrem Projekt im Azure KI Foundry-Portal zurück.

    2. Wechseln Sie auf der linken Randleiste Ihres Projekts zu Erstellen und Anpassen>Promptflow.

    3. Wählen Sie Erstellen aus, um einen neuen Flow zu erstellen.

    4. Wählen Sie im Feld Chatflow die Option Erstellen aus.

    5. Geben Sie Ihrem Prompt Flow einen Namen, und wählen Sie Erstellen aus.

    6. Wählen Sie im Graphen den Knoten Chat aus, um zum Abschnitt Chat zu wechseln.

    7. Öffnen Sie unter Verbindung die Dropdownliste, um die soeben erstellte Verbindung auszuwählen, in diesem Fall meta-llama3-8b-connection.

    8. Wählen Sie auf der oberen Navigationsleiste Computesitzung starten aus, um eine automatische Runtime für den Prompt Flow zu starten.

    9. Wählen Sie die Option Chat aus. Sie können jetzt Nachrichten senden und Antworten empfangen.