Udostępnij przez


Punkty końcowe dla modeli rozwiązania Microsoft Foundry

Modele Microsoft Foundry umożliwiają dostęp do najbardziej zaawansowanych modeli od wiodących dostawców modeli za pośrednictwem jednego punktu końcowego i zestawu poświadczeń. Ta funkcja umożliwia przełączanie się między modelami i używanie ich w aplikacji bez konieczności zmieniania kodu.

W tym artykule wyjaśniono, jak usługi Foundry organizują modele i jak używać punktu końcowego wnioskowania w celu uzyskania do nich dostępu.

Ważna

Zestaw AZURE AI Inference beta SDK jest przestarzały i zostanie wycofany 30 maja 2026 r. Przejdź do ogólnie dostępnego interfejsu API OpenAI/v1 ze stabilnym zestawem OpenAI SDK. Postępuj zgodnie z przewodnikiem migracji , aby przełączyć się do interfejsu OpenAI/v1 przy użyciu zestawu SDK dla preferowanego języka programowania.

Wdrożenia

Usługa Foundry używa wdrożeń do udostępniania modeli. Wdrożenia dają modelowi nazwę i ustawiają określone konfiguracje. Dostęp do modelu można uzyskać przy użyciu jego nazwy wdrożenia w żądaniach.

Wdrożenie obejmuje:

  • Nazwa modelu
  • Wersja modelu
  • Typ aprowizacji lub pojemności1
  • Konfiguracja filtrowania zawartości1
  • Konfiguracja ograniczania szybkości1

1 Te konfiguracje mogą ulec zmianie w zależności od wybranego modelu.

Zasób Foundry może mieć wiele wdrożeń modeli. Płacisz tylko za wnioskowanie wykonywane we wdrożeniach modelu. Wdrożenia to zasoby platformy Azure, więc podlegają zasadom platformy Azure.

Aby uzyskać więcej informacji na temat tworzenia wdrożeń, zobacz Dodawanie i konfigurowanie wdrożeń modelu.

Punkt końcowy wnioskowania usługi Azure OpenAI

Interfejs API usługi Azure OpenAI udostępnia pełne możliwości modeli OpenAI i obsługuje więcej funkcji, takich jak asystenci, wątki, pliki i wnioskowanie wsadowe. Możesz również uzyskać dostęp do modeli innych niż OpenAI za pośrednictwem tej trasy.

Punkty końcowe usługi Azure OpenAI, zazwyczaj w postaci https://<resource-name>.openai.azure.com, działają na poziomie wdrożenia, a każde wdrożenie ma własny skojarzony adres URL. Można jednak użyć tego samego mechanizmu uwierzytelniania, aby korzystać z wdrożeń. Aby uzyskać więcej informacji, zobacz stronę referencyjną interfejsu API usługi Azure OpenAI.

Ilustracja przedstawiająca sposób wdrażania usługi Azure OpenAI zawiera jeden adres URL dla każdego wdrożenia.

Każde wdrożenie ma adres URL utworzony przez połączenie podstawowego adresu URL usługi Azure OpenAI i trasy /deployments/<model-deployment-name>.

Zainstaluj pakiet openai przy użyciu menedżera pakietów, takiego jak:

pip install openai --upgrade

Następnie możesz wykorzystać pakiet do korzystania z modelu. W poniższym przykładzie pokazano, jak utworzyć aplikację kliencką do korzystania z funkcji uzupełniania czatu.

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model deployment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

Aby uzyskać więcej informacji na temat korzystania z punktu końcowego usługi Azure OpenAI, zapoznaj się z dokumentacją Azure OpenAI w Foundry Models.

Uwierzytelnianie bez klucza

Modele wdrożone w ramach Foundry Models w systemie Foundry Tools obsługują autoryzację bez klucza przy użyciu Microsoft Entra ID. Autoryzacja bez klucza zwiększa bezpieczeństwo, upraszcza środowisko użytkownika, zmniejsza złożoność operacyjną i zapewnia niezawodną obsługę zgodności dla nowoczesnego programowania. Sprawia to, że bez klucza autoryzacja jest zdecydowanym wyborem dla organizacji przyjmujących bezpieczne i skalowalne rozwiązania do zarządzania tożsamościami.

Aby korzystać z uwierzytelniania bez klucza, skonfiguruj zasób i przyznaj użytkownikom dostęp do działania predykcyjnego. Po skonfigurowaniu zasobu i udzieleniu dostępu uwierzytelnij się w następujący sposób:

Zainstaluj pakiet OpenAI SDK przy użyciu menedżera pakietów, takiego jak pip.

pip install openai

W przypadku uwierzytelniania identyfikatora Entra firmy Microsoft zainstaluj również następujące elementy:

pip install azure-identity

Użyj pakietu, aby korzystać z modelu. W poniższym przykładzie pokazano, jak utworzyć klienta do korzystania z funkcji uzupełniania czatów przy użyciu identyfikatora Entra firmy Microsoft oraz jak wykonać testowe wywołanie do punktu końcowego uzupełniania czatów z wykorzystaniem wdrożenia modelu.

Zastąp <resource> nazwą swojego zasobu Foundry. Znajdź go w Azure Portal lub uruchamiając az cognitiveservices account list. Zastąp DeepSeek-V3.1 rzeczywistą nazwą wdrożenia.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), 
    "https://cognitiveservices.azure.com/.default"
)

client = OpenAI(
    base_url="https://<resource>.openai.azure.com/openai/v1/",
    api_key=token_provider,
)

completion = client.chat.completions.create(
    model="DeepSeek-V3.1",  # Required: your deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is Azure AI?"}
    ]
)

print(completion.choices[0].message.content)

Oczekiwane dane wyjściowe

Azure AI is a comprehensive suite of artificial intelligence services and tools from Microsoft that enables developers to build intelligent applications. It includes services for natural language processing, computer vision, speech recognition, and machine learning capabilities.

Referencja: Zestaw SDK języka Python OpenAI i klasa DefaultAzureCredential.