다음을 통해 공유


Microsoft Foundry 모델의 엔드포인트

Microsoft Foundry 모델을 사용하면 단일 엔드포인트 및 자격 증명 집합을 통해 주요 모델 공급자의 가장 강력한 모델을 access 수 있습니다. 이 기능을 사용하면 코드를 변경하지 않고도 모델 간에 전환하고 애플리케이션에서 모델을 사용할 수 있습니다.

이 문서에서는 Foundry 서비스가 모델을 구성하는 방법과 유추 엔드포인트를 사용하여 모델에 접근하는 방법을 설명합니다.

중요합니다

Azure AI 유추 베타 SDK는 더 이상 사용되지 않으며 2026년 5월 30일에 사용 중지됩니다. 안정적인 OpenAI SDK를 사용하여 일반적으로 사용 가능한 OpenAI/v1 API 로 전환합니다. 기본 프로그래밍 언어로 SDK를 사용하여 마이그레이션 가이드 에 따라 OpenAI/v1로 전환합니다.

배포

Foundry는 배포를 사용하여 모델을 사용 가능하게 만듭니다. 배포는 모델에 이름을 지정하고 특정 구성을 설정합니다. 모델에 접근하려면 요청에 배포 이름을 사용하십시오.

배포에는 다음이 포함됩니다.

  • 모델 이름
  • 모델 버전
  • 프로비전 또는 용량 형식1
  • 콘텐츠 필터링 구성1
  • 속도 제한 구성1

1 이러한 구성은 선택한 모델에 따라 변경될 수 있습니다.

Foundry 리소스에는 많은 모델 배포가 있을 수 있습니다. 모델 배포 시 수행된 유추에 대해서만 비용을 지불합니다. 배포는 Azure 리소스이므로 Azure 정책의 적용을 받습니다.

배포 만들기에 대한 자세한 내용은 모델 배포 추가 및 구성을 참조하세요.

Azure OpenAI 추론 엔드포인트

Azure OpenAI API는 OpenAI 모델의 전체 기능을 노출하고 도우미, 스레드, 파일 및 일괄 처리 유추와 같은 더 많은 기능을 지원합니다. 이 경로를 통해 비 OpenAI 모델을 access 수도 있습니다.

일반적으로 https://<resource-name>.openai.azure.com 형식의 OpenAI 엔드포인트를 Azure 배포 수준에서 작동하며 각 배포에는 고유한 연결된 URL이 있습니다. 하지만 동일한 인증 메커니즘을 사용하여 배포를 사용할 수 있습니다. 자세한 내용은 Azure OpenAI API 참조 페이지를 참조하세요.

Azure OpenAI 배포가 각 배포마다 단일 URL을 포함하는 방법을 보여주는 일러스트레이션입니다.

각 배포에는 Azure OpenAI 기본 URL 및 경로 /deployments/<model-deployment-name> 연결하여 구성되는 URL이 있습니다.

pip와 같은 package manager 사용하여 패키지 openai 설치합니다.

pip install openai --upgrade

그런 다음 패키지를 사용하여 모델을 활용할 수 있습니다. 다음 예는 채팅 완성을 활용하는 클라이언트를 생성하는 방법을 보여 줍니다.

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model deployment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

Azure OpenAI 엔드포인트를 사용하는 방법에 대한 자세한 내용은 foundry Models 설명서의 Azure OpenAI 설명서 참조하세요.

키 없는 인증

Foundry 도구의 Foundry 모델에 배포된 모델은 Microsoft Entra ID 사용하여 키 없는 권한 부여를 지원합니다. 키 없는 권한 부여는 보안을 강화하고, 사용자 환경을 간소화하며, 운영상의 복잡성을 줄이고, 최신 개발에 대한 강력한 준수 지원을 제공합니다. 이를 통해 키 없는 권한 부여는 안전하고 확장성 있는 ID 관리 솔루션을 도입하는 조직에 강력한 선택이 됩니다.

키 없는 인증을 사용하려면, 리소스를 구성하고 사용자가 유추를 수행할 수 있도록 접근 권한을 부여합니다. 리소스를 구성하고 access 부여한 후 다음과 같이 인증합니다.

pip와 같은 package manager 사용하여 OpenAI SDK를 설치합니다.

pip install openai

Microsoft Entra ID 인증의 경우 다음을 설치합니다.

pip install azure-identity

패키지를 활용하여 모델을 사용합니다. 다음 예제에서는 Microsoft Entra ID를 사용하여 채팅 완료 서비스를 활용하는 클라이언트를 생성하고, 모델 배포를 통해 채팅 완료 엔드포인트에 테스트 호출을 수행하는 방법을 보여줍니다.

<resource>를 당신의 Foundry 리소스 이름으로 대체합니다. Azure 포털에서 찾거나 az cognitiveservices account list을 실행하여 찾습니다. DeepSeek-V3.1를 실제 배포 이름으로 대체합니다.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), 
    "https://ai.azure.com/.default"
)

client = OpenAI(
    base_url="https://<resource>.openai.azure.com/openai/v1/",
    api_key=token_provider,
)

completion = client.chat.completions.create(
    model="DeepSeek-V3.1",  # Required: your deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is Azure AI?"}
    ]
)

print(completion.choices[0].message.content)

예상 출력

Azure AI is a comprehensive suite of artificial intelligence services and tools from Microsoft that enables developers to build intelligent applications. It includes services for natural language processing, computer vision, speech recognition, and machine learning capabilities.

참조: OpenAI Python SDKDefaultAzureCredential 클래스.