Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieser Artikel bezieht sich auf das Microsoft Foundry(klassische) Portal.
🔄 Wechseln Sie zur Microsoft Foundry-Dokumentation (neu), wenn Sie das neue Portal verwenden.
Hinweis
Dieser Artikel bezieht sich auf das Microsoft Foundry (neue) Portal.
Von Bedeutung
Wenn Sie derzeit ein Azure AI Inference Beta SDK mit Microsoft Foundry Models oder Azure OpenAI-Dienst verwenden, empfehlen wir dringend, dass Sie zur allgemein verfügbaren OpenAI/v1-API wechseln, die ein openAI stable SDK verwendet.
Weitere Informationen zum Migrieren zur OpenAI/v1-API mithilfe eines SDK in Ihrer gewünschten Programmiersprache finden Sie unter Migrate from Azure AI Inference SDK to OpenAI SDK.
In diesem Artikel erfahren Sie, wie Sie einem Foundry Models-Endpunkt eine neue Modellbereitstellung hinzufügen. Die Bereitstellung ist für die Ableitung in Ihrer Foundry-Ressource verfügbar, wenn Sie den Namen der Bereitstellung in Ihren Anfragen angeben.
Voraussetzungen
Um diesen Artikel abzuschließen, benötigen Sie Folgendes:
Ein Azure-Abonnement. Wenn Sie GitHub-Modelle verwenden, können Sie Ihre Erfahrung upgraden und während dem Prozess ein Azure-Abonnement erstellen. Weitere Informationen finden Sie unter Upgrade von GitHub-Modellen auf Foundry-Modelle.
Ein Foundry-Projekt. Dieser Projekttyp wird unter einer Foundry-Ressource verwaltet (früher als Azure AI Services-Ressource bezeichnet). Wenn Sie nicht über ein Foundry-Projekt verfügen, lesen Sie "Erstellen eines Projekts für Microsoft Foundry".
Azure role-based access control (RBAC)-Berechtigungen zum Erstellen und Verwalten von Bereitstellungen. Sie benötigen die Rolle " Cognitive Services-Mitwirkender" oder gleichwertige Berechtigungen für die Foundry-Ressource.
Foundry Models von Partnern und der Community erfordern einen Zugriff auf Azure Marketplace. Stellen Sie sicher, dass Sie über die erforderlichen Berechtigungen zum Abonnieren von Modellangeboten verfügen. Für Foundry Models, die direkt von Azure verkauft werden, besteht diese Anforderung nicht.
Installieren Sie die Azure CLI (Version 2.60 oder höher) und die
cognitiveservicesErweiterung.az extension add -n cognitiveservicesEinige Befehle in diesem Lernprogramm verwenden das
jqTool, das möglicherweise nicht auf Ihrem System installiert ist. Die Installationsanweisungen finden Sie unter Downloadjq.Ermitteln Sie die folgenden Informationen:
Ihre Azure-Abonnement-ID
Name der Foundry-Ressource
Die Ressourcengruppe, in der Sie die Foundry-Ressource bereitgestellt haben
Modelle hinzufügen
Um ein Modell hinzuzufügen, identifizieren Sie zuerst das Modell, das Sie bereitstellen möchten. Fragen Sie die verfügbaren Modelle wie folgt ab:
Melden Sie sich bei Ihrem Azure-Abonnement an.
az loginWenn Sie über mehrere Abonnements verfügen, wählen Sie das Abonnement aus, in dem sich Ihre Ressource befindet.
az account set --subscription $subscriptionIdLegen Sie die folgenden Umgebungsvariablen mit dem Namen der Foundry-Ressource fest, die Sie verwenden möchten, und die Ressourcengruppe.
accountName="<ai-services-resource-name>" resourceGroupName="<resource-group>" location="eastus2"Wenn Sie noch keine Foundry-Ressource erstellt haben, erstellen Sie eine Ressource.
az cognitiveservices account create -n $accountName -g $resourceGroupName --custom-domain $accountName --location $location --kind AIServices --sku S0Referenz: az cognitiveservices account
Überprüfen Sie, welche Modelle für Sie verfügbar sind und unter welcher SKU. SKUs, auch als Bereitstellungstypen bezeichnet, definieren, wie Azure-Infrastrukturanforderungen verarbeitet. Modelle bieten möglicherweise unterschiedliche Bereitstellungstypen an. Der folgende Befehl listet alle verfügbaren Modelldefinitionen auf:
az cognitiveservices account list-models \ -n $accountName \ -g $resourceGroupName \ | jq '.[] | { name: .name, format: .format, version: .version, sku: .skus[0].name, capacity: .skus[0].capacity.default }'Die Ausgabe enthält verfügbare Modelle mit ihren Eigenschaften:
{ "name": "Phi-4-mini-instruct", "format": "Microsoft", "version": "1", "sku": "GlobalStandard", "capacity": 1 }Referenz: az cognitiveservices account list-models
Identifizieren Sie das Modell, das Sie bereitstellen möchten. Sie benötigen die Eigenschaften
name,format,versionundsku. Die Eigenschaftformatgibt den Anbieter an, der das Modell anbietet. Je nach Art der Bereitstellung benötigen Sie möglicherweise auch Kapazität.Fügen Sie der Ressource die Modellimplementierung hinzu. Im folgenden Beispiel wird
Phi-4-mini-instructhinzugefügt:az cognitiveservices account deployment create \ -n $accountName \ -g $resourceGroupName \ --deployment-name Phi-4-mini-instruct \ --model-name Phi-4-mini-instruct \ --model-version 1 \ --model-format Microsoft \ --sku-capacity 1 \ --sku-name GlobalStandardReferenz: az Bereitstellung eines Kontos für kognitive Dienste
Überprüfen Sie, ob die Bereitstellung erfolgreich abgeschlossen wurde:
az cognitiveservices account deployment show \ --deployment-name Phi-4-mini-instruct \ -n $accountName \ -g $resourceGroupName \ | jq '.properties.provisioningState'Die Ausgabe sollte
"Succeeded"angezeigt werden. Das Modell kann nach Abschluss der Bereitstellung verwendet werden.Referenz: az cognitiveservices account list-models
Sie können dasselbe Modell bei Bedarf mehrmals bereitstellen, solange dies unter einem anderen Bereitstellungsnamen erfolgt. Diese Funktion ist nützlich, wenn Sie verschiedene Konfigurationen für ein bestimmtes Modell testen möchten, einschließlich Inhaltsfiltern.
Verwenden Sie das Modell
Hinweis
Dieser Abschnitt ist sowohl für die CLI- als auch für Bicep-Ansätze identisch.
Sie können bereitgestellte Modelle über die Endpunkte für Foundry-Modelle für die Ressource konsumieren. Wenn Sie Ihre Anforderung erstellen, geben Sie den Parameter model an, und fügen Sie den erstellten Modellbereitstellungsnamen ein. Sie können den URI für den Ableitungsendpunkt programmgesteuert abrufen, indem Sie den folgenden Code verwenden:
Inference-Endpunkt
az cognitiveservices account show -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'
Um Anforderungen an den Endpunkt "Foundry Models" zu senden, fügen Sie die Route modelsan. Beispiel: https://<resource>.services.ai.azure.com/models. Weitere Informationen finden Sie in der Azure AI Model Inference-API-Referenz für alle unterstützten Vorgänge.
Inferenzschlüssel
az cognitiveservices account keys list -n $accountName -g $resourceGroupName
Verwalten von Bereitstellungen
Mithilfe der CLI können Sie alle verfügbaren Bereitstellungen anzeigen:
Führen Sie den folgenden Befehl aus, um alle aktiven Bereitstellungen anzuzeigen:
az cognitiveservices account deployment list -n $accountName -g $resourceGroupNameSie können die Details einer bestimmten Bereitstellung anzeigen:
az cognitiveservices account deployment show \ --deployment-name "Phi-4-mini-instruct" \ -n $accountName \ -g $resourceGroupNameSie können eine bestimmte Bereitstellung wie folgt löschen:
az cognitiveservices account deployment delete \ --deployment-name "Phi-4-mini-instruct" \ -n $accountName \ -g $resourceGroupName
Installieren Sie die Azure CLI.
Ermitteln Sie die folgenden Informationen:
- Ihre Azure-Abonnement-ID
Name Ihrer Foundry-Ressource (früher als Azure AI Services-Ressource bezeichnet)
Die Ressourcengruppe, in der die Foundry-Ressource bereitgestellt wird
Der Modellname, Der Anbieter, die Version und die SKU, die Sie bereitstellen möchten. Sie können das Foundry-Portal oder die Azure CLI verwenden, um diese Informationen zu finden. In diesem Beispiel stellen Sie das folgende Modell bereit:
-
Modellname:
Phi-4-mini-instruct -
Anbieter:
Microsoft -
Version:
1 - Bereitstellungstyp: Globaler Standard
-
Modellname:
Einrichten der Umgebung
Das Beispiel in diesem Artikel basiert auf Codebeispielen, die im Repository Azure-Samples/azureai-model-inference-bicep enthalten sind. Um die Befehle lokal auszuführen, ohne Dateiinhalte kopieren oder einfügen zu müssen, klonen Sie das Repository:
git clone https://github.com/Azure-Samples/azureai-model-inference-bicep
Die Dateien für dieses Beispiel befinden sich in:
cd azureai-model-inference-bicep/infra
Berechtigungen, die zum Abonnieren von Modellen von Partnern und der Community erforderlich sind
Foundry-Modelle von Partnern und der Community stehen für den die Bereitstellung zur Verfügung (zum Beispiel Cohere-Modelle) erfordern Azure Marketplace. Modellanbieter definieren die Lizenzbedingungen und legen den Preis für die Verwendung ihrer Modelle mithilfe von Azure Marketplace fest.
Stellen Sie beim Bereitstellen von Drittanbietermodellen sicher, dass Sie über die folgenden Berechtigungen in Ihrem Konto verfügen:
- Im Azure-Abonnement:
Microsoft.MarketplaceOrdering/agreements/offers/plans/readMicrosoft.MarketplaceOrdering/agreements/offers/plans/sign/actionMicrosoft.MarketplaceOrdering/offerTypes/publishers/offers/plans/agreements/readMicrosoft.Marketplace/offerTypes/publishers/offers/plans/agreements/readMicrosoft.SaaS/register/action
- In der Ressourcengruppe zum Erstellen und Verwenden der SaaS-Ressource:
Microsoft.SaaS/resources/readMicrosoft.SaaS/resources/write
Hinzufügen des Modells
Verwenden Sie die Vorlage
ai-services-deployment-template.bicep, um Bereitstellungen von Modellen zu beschreiben.ai-services-deployment-template.bicep
@description('Name of the Azure AI services account') param accountName string @description('Name of the model to deploy') param modelName string @description('Version of the model to deploy') param modelVersion string @allowed([ 'AI21 Labs' 'Cohere' 'Core42' 'DeepSeek' 'xAI' 'Meta' 'Microsoft' 'Mistral AI' 'OpenAI' ]) @description('Model provider') param modelPublisherFormat string @allowed([ 'GlobalStandard' 'DataZoneStandard' 'Standard' 'GlobalProvisioned' 'Provisioned' ]) @description('Model deployment SKU name') param skuName string = 'GlobalStandard' @description('Content filter policy name') param contentFilterPolicyName string = 'Microsoft.DefaultV2' @description('Model deployment capacity') param capacity int = 1 resource modelDeployment 'Microsoft.CognitiveServices/accounts/deployments@2024-04-01-preview' = { name: '${accountName}/${modelName}' sku: { name: skuName capacity: capacity } properties: { model: { format: modelPublisherFormat name: modelName version: modelVersion } raiPolicyName: contentFilterPolicyName == null ? 'Microsoft.Nill' : contentFilterPolicyName } }Führen Sie die Bereitstellung aus:
RESOURCE_GROUP="<resource-group-name>" ACCOUNT_NAME="<azure-ai-model-inference-name>" MODEL_NAME="Phi-4-mini-instruct" PROVIDER="Microsoft" VERSION=1 az deployment group create \ --resource-group $RESOURCE_GROUP \ --template-file ai-services-deployment-template.bicep \ --parameters accountName=$ACCOUNT_NAME modelName=$MODEL_NAME modelVersion=$VERSION modelPublisherFormat=$PROVIDERÜberprüfen Sie, ob die Bereitstellung erfolgreich abgeschlossen wurde:
az cognitiveservices account deployment show \ --deployment-name $MODEL_NAME \ -n $ACCOUNT_NAME \ -g $RESOURCE_GROUP \ | jq '.properties.provisioningState'Die Ausgabe sollte
"Succeeded"angezeigt werden.
Verwenden Sie das Modell
Hinweis
Dieser Abschnitt ist sowohl für die CLI- als auch für Bicep-Ansätze identisch.
Sie können bereitgestellte Modelle über die Endpunkte für Foundry-Modelle für die Ressource konsumieren. Wenn Sie Ihre Anforderung erstellen, geben Sie den Parameter model an, und fügen Sie den erstellten Modellbereitstellungsnamen ein. Sie können den URI für den Ableitungsendpunkt programmgesteuert abrufen, indem Sie den folgenden Code verwenden:
Inference-Endpunkt
az cognitiveservices account show -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'
Um Anforderungen an den Endpunkt "Foundry Models" zu senden, fügen Sie die Route modelsan. Beispiel: https://<resource>.services.ai.azure.com/models. Weitere Informationen finden Sie in der Azure AI Model Inference-API-Referenz für alle unterstützten Vorgänge.
Inferenzschlüssel
az cognitiveservices account keys list -n $accountName -g $resourceGroupName
Problembehandlung
| Fehler | Ursache | Beschluss |
|---|---|---|
| Kontingent überschritten | Ihr Abonnement hat das Bereitstellungskontingent für die ausgewählte SKU oder Region erreicht. | Überprüfen Sie Ihr Kontingent im Gießereiportal, oder fordern Sie eine Erhöhung durch den Azure-Support an. |
| Fehler bei der Autorisierung | Die verwendete Identität verfügt nicht über die erforderliche RBAC-Rolle. | Weisen Sie die Rolle Cognitive Services Contributor der Foundry-Ressource zu. |
| Modell nicht verfügbar | Das Modell ist in Ihrer Region oder Ihrem Abonnement nicht verfügbar. | Führen Sie diese Option az cognitiveservices account list-models aus, um die verfügbaren Modelle und Regionen zu überprüfen. |
| Erweiterung nicht gefunden | Die cognitiveservices CLI-Erweiterung ist nicht installiert. |
Führen Sie die Ausführung az extension add -n cognitiveservices aus, um die Erweiterung zu installieren. |