Udostępnij przez


Szybki przewodnik startowy Microsoft Foundry

W tym przewodniku szybkiego startu rozpoczniesz korzystanie z modeli i agentów w Foundry.

Wykonasz:

  • Generowanie odpowiedzi na podstawie modelu
  • Tworzenie agenta za pomocą zdefiniowanego monitu
  • Rozmowa wieloetapowa z agentem

Wymagania wstępne

Ustawianie zmiennych środowiskowych i pobieranie kodu

Zapisz punkt końcowy projektu jako zmienną środowiskową. Ustaw również te wartości do użycia w skryptach.

PROJECT_ENDPOINT=<endpoint copied from welcome screen>
AGENT_NAME="MyAgent"
MODEL_DEPLOYMENT_NAME="gpt-4.1-mini"

Postępuj zgodnie z poniższymi instrukcjami lub pobierz kod:

Zaloguj się, używając polecenia CLI az login, aby potwierdzić swoją tożsamość przed uruchomieniem skryptów Pythona.

Instalowanie i uwierzytelnianie

Upewnij się, że zainstalujesz poprawną wersję zapoznawczą/wstępną pakietów, jak pokazano na tej stronie.

  1. Zainstaluj te pakiety, w tym wersję zapoznawcza programu azure-ai-projects. Ta wersja używa API projektów Foundry (nowe) (wersja zapoznawcza).

    pip install --pre "azure-ai-projects>=2.0.0b4"
    pip install python-dotenv
    
  2. Zaloguj się, używając polecenia CLI az login, aby potwierdzić swoją tożsamość przed uruchomieniem skryptów Pythona.

Wskazówka

Kod używa usługi Azure AI Projects 2.x i jest niezgodny z usługą Azure AI Projects 1.x. Zapoznaj się z dokumentacją rozwiązania Foundry (klasyczną) dla wersji usługi Azure AI Projects 1.x.

Rozmowa z modelem

Interakcja z modelem to podstawowy blok konstrukcyjny aplikacji sztucznej inteligencji. Wyślij dane wejściowe i odbierz odpowiedź z modelu:

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

print(f"Using PROJECT_ENDPOINT: {os.environ['PROJECT_ENDPOINT']}")
print(f"Using MODEL_DEPLOYMENT_NAME: {os.environ['MODEL_DEPLOYMENT_NAME']}")

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

openai_client = project_client.get_openai_client()

response = openai_client.responses.create(
    model=os.environ["MODEL_DEPLOYMENT_NAME"],
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

Po uruchomieniu kodu w konsoli zostanie wyświetlona odpowiedź wygenerowana przez model (na przykład krótki wiersz lub odpowiedź na monit). Potwierdza to, że punkt końcowy projektu, uwierzytelnianie i wdrożenie modelu działają prawidłowo.

Wskazówka

Kod używa usługi Azure AI Projects 2.x i jest niezgodny z usługą Azure AI Projects 1.x. Zapoznaj się z dokumentacją rozwiązania Foundry (klasyczną) dla wersji Azure AI Projects 1.x.

Utwórz agenta

Utwórz agenta przy użyciu wdrożonego modelu.

Agent definiuje podstawowe zachowanie. Po utworzeniu zapewnia spójne odpowiedzi w interakcjach użytkownika bez powtarzania instrukcji za każdym razem. Agentów można aktualizować lub usuwać w dowolnym momencie.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent = project_client.agents.create_version(
    agent_name=os.environ["AGENT_NAME"],
    definition=PromptAgentDefinition(
        model=os.environ["MODEL_DEPLOYMENT_NAME"],
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

Dane wyjściowe potwierdzają, że agent został utworzony. W przypadku kart zestawu SDK zobaczysz nazwę agenta i identyfikator wydrukowany w konsoli.

Wskazówka

Kod używa usługi Azure AI Projects 2.x i jest niezgodny z usługą Azure AI Projects 1.x. Zapoznaj się z dokumentacją Foundry (klasyczną) dla wersji Azure AI Projects 1.x.

Rozmowa z agentem

Użyj wcześniej utworzonego agenta o nazwie "MyAgent", aby nawiązać interakcję, zadając pytanie i powiązaną odpowiedź. Konwersacja zachowuje historię podczas tych interakcji.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent_name = os.environ["AGENT_NAME"]
openai_client = project_client.get_openai_client()

# Optional Step: Create a conversation to use with the agent
conversation = openai_client.conversations.create()
print(f"Created conversation (id: {conversation.id})")

# Chat with the agent to answer questions
response = openai_client.responses.create(
    conversation=conversation.id, #Optional conversation context for multi-turn
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

# Optional Step: Ask a follow-up question in the same conversation
response = openai_client.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(f"Response output: {response.output_text}")

Zobaczysz odpowiedzi agenta na obie komendy. Odpowiedź kolejna pokazuje, że agent utrzymuje historię rozmowy w kolejnych wymianach zdań.

Wskazówka

Kod używa usługi Azure AI Projects 2.x i jest niezgodny z usługą Azure AI Projects 1.x. Zapoznaj się z dokumentacją rozwiązania Foundry (klasyczną) w odniesieniu do wersji 1.x Azure AI Projects.

Uprzątnij zasoby

Jeśli nie potrzebujesz już żadnych utworzonych zasobów, usuń grupę zasobów skojarzona z projektem.

  • W witrynie Azure Portal wybierz grupę zasobów, a następnie wybierz pozycję Usuń. Upewnij się, że chcesz usunąć grupę zasobów.

Następny krok