Freigeben über


Upgrade von GitHub-Modellen auf Microsoft Foundry Models

Hinweis

Dieses Dokument bezieht sich auf das Microsoft Foundry(klassische) Portal.

🔍 Zeigen Sie die Microsoft Foundry-Dokumentation (neu) an, um mehr über das neue Portal zu erfahren.

In diesem Artikel erfahren Sie, wie Sie eine generative KI-Anwendung entwickeln, indem Sie mit GitHub-Modellen beginnen und dann Ihre Erfahrung aktualisieren, indem Sie eine Ressource für Foundry Tools mit Microsoft Foundry Models bereitstellen.

GitHub-Modelle sind nützlich, wenn Sie ki-Modelle kostenlos finden und experimentieren möchten, während Sie eine generative KI-Anwendung entwickeln. Wenn Sie bereit sind, Ihre Anwendung in die Produktion zu bringen, aktualisieren Sie Ihre Erfahrung, indem Sie eine Foundry Tools-Ressource in einem Azure-Abonnement bereitstellen und mit der Verwendung von Foundry Models beginnen. Sie brauchen in Ihrem Code nichts weiter zu ändern.

Die Nutzung des Playgrounds und der kostenlosen API für GitHub-Modelle ist durch Anfragen pro Minute, Anfragen pro Tag, Token pro Anfrage und gleichzeitige Anfragen eingeschränkt. Wenn Sie eine Ratenbegrenzung erreichen, müssen Sie warten, bis die erreichte Ratenbegrenzung zurückgesetzt wird, bevor Sie weitere Anforderungen machen können.

Voraussetzungen

Um die Schritte dieses Tutorials abzuschließen, benötigen Sie Folgendes:

Upgrade auf Foundry-Modelle

Die Ratenbeschränkungen für den Playground und die kostenlose API-Nutzung helfen Ihnen, mit Modellen zu experimentieren und Ihre KI-Anwendung zu entwickeln. Wenn Sie bereit sind, Ihre Anwendung in die Produktion zu bringen, verwenden Sie einen Schlüssel und Endpunkt aus einem kostenpflichtigen Azure-Konto. Sie brauchen in Ihrem Code nichts weiter zu ändern.

So rufen Sie den Schlüssel und den Endpunkt ab:

  1. Wechseln Sie zu GitHub-Modellen, und wählen Sie ein Modell aus, um in seinem Playground zu landen. In diesem Artikel wird Mistral Large 24.11 verwendet.

  2. Geben Sie einige Eingabeaufforderungen ein, oder verwenden Sie einige der vorgeschlagenen Eingabeaufforderungen, um mit dem Modell im Playground zu interagieren.

  3. Wählen Sie im Playground „Dieses Modell verwenden“ aus. Diese Aktion öffnet ein Fenster mit "Erste Schritte mit Modellen in Ihrer Codebasis".

  4. Wählen Sie im Schritt "Authentifizierung konfigurieren" den Azure AI-Schlüssel aus dem Abschnitt "Azure AI" aus.

    Screenshot, der zeigt, wie Sie den Azure AI-Produktionsschlüssel aus dem Playground eines GitHub-Modells abrufen.

  5. Wenn Sie bereits bei Ihrem Azure-Konto angemeldet sind, überspringen Sie diesen Schritt. Wenn Sie jedoch nicht über ein Azure-Konto verfügen oder nicht bei Ihrem Konto angemeldet sind, führen Sie die folgenden Schritte aus:

    1. Wenn Sie nicht über ein Azure-Konto verfügen, wählen Sie "Mein Konto erstellen " aus, und führen Sie die Schritte zum Erstellen eines Kontos aus.

    2. Wenn Sie über ein Azure-Konto verfügen, wählen Sie alternativ "Wieder anmelden" aus. Wenn Ihr vorhandenes Konto ein kostenloses Konto ist, müssen Sie zuerst ein Upgrade auf einen Standardplan durchführen.

    3. Kehren Sie zum Spielplatz des Modells zurück, und wählen Sie erneut Azure AI-Schlüssel abrufen aus.

    4. Melden Sie sich bei Ihrem Azure-Konto an.

  6. Sie gelangen zu Foundry > GitHub, und die Seite wird mit den Details Ihres Modells geladen. Es kann ein oder zwei Minuten dauern, bis Die Modelldetails in Foundry geladen werden.

  7. Für Foundry Models von Partnern und Communitys müssen Sie den Azure Marketplace abonnieren. Diese Anforderung gilt beispielsweise für Mistral-Large-2411. Wählen Sie "Zustimmen" aus, und fahren Sie mit der Annahme der Bedingungen fort.

  8. Wählen Sie die Schaltfläche Bereitstellen aus, um das Modell für Ihr Konto bereitzustellen.

  9. Wenn Ihre Bereitstellung bereit ist, landen Sie auf der Seite "Übersicht" Ihres Projekts, auf der Sie den Endpunkt des Foundry-Projekts sehen können.

  10. Um die Endpunkt-URL und den API-Schlüssel des jeweiligen Modells abzurufen, wechseln Sie im linken Bereich des Foundry-Portals zur Registerkarte "Modelle + Endpunkte ", und wählen Sie das bereitgestellte Modell aus. Der Ziel-URI und der API-Schlüssel des Endpunkts sind auf der Detailseite der Bereitstellung sichtbar. Verwenden Sie diese Werte in Ihrem Code, um das Modell in Ihrer Produktionsumgebung zu verwenden.

    Screenshot, der zeigt, wie die URL und der Schlüssel abgerufen werden, die der Bereitstellung zugeordnet sind.

Verwenden des neuen Endpunkts

Um Ihr bereitgestelltes Modell mit Code zu verwenden, benötigen Sie die Endpunkt-URL und den Schlüssel des Modells, die Sie im vorherigen Abschnitt gesehen haben. Sie können alle unterstützten SDKs verwenden, um Vorhersagen vom Endpunkt abzurufen. Die folgenden SDKs werden offiziell unterstützt:

  • OpenAI SDK
  • Azure OpenAI SDK
  • Azure KI-Rückschluss-SDK

Weitere Details und Beispiele finden Sie unter unterstützten Sprachen und SDKs. Das folgende Beispiel zeigt, wie Sie das Azure AI Inference SDK mit dem neu bereitgestellten Modell verwenden:

Installieren Sie das Paket azure-ai-inference mit Ihrem Paket-Manager, z. B. pip:

pip install azure-ai-inference

Anschließend können Sie das Paket verwenden, um das Modell zu nutzen. Das folgende Beispiel zeigt, wie Sie einen Client erstellen, um Chatvervollständigungen zu nutzen:

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

Erkunden Sie unsere Beispiele,und lesen Sie die API-Referenzdokumentation für die ersten Schritte.

Generieren Sie Ihren ersten Chatabschluss:

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
    ],
    model="mistral-large"
)

print(response.choices[0].message.content)

Verwenden Sie den Parameter model="<deployment-name>, um Ihre Anforderung an diese Bereitstellung weiterzuleiten. Bereitstellungen funktionieren als Alias eines gegebenen Modells unter bestimmten Konfigurationen.

Von Bedeutung

Im Gegensatz zu GitHub-Modellen, bei denen alle Modelle bereits konfiguriert sind, können Sie mit der Ressource "Foundry Tools" steuern, welche Modelle in Ihrem Endpunkt und unter welcher Konfiguration verfügbar sind. Fügen Sie so viele Modelle hinzu, wie Sie verwenden möchten, bevor Sie sie im model-Parameter angeben. Erfahren Sie, wie Sie Ihrer Ressource weitere Modelle hinzufügen.

Erkunden Sie zusätzliche Funktionen

Foundry Models unterstützt zusätzliche Features, die in GitHub-Modellen nicht verfügbar sind, einschließlich:

Problembehandlung

Weitere Hilfe finden Sie im Abschnitt "Häufig gestellte Fragen".