Partilhar via


Início Rápido do Microsoft Foundry

Neste guia de início rápido, irá começar a usar modelos e agentes no Foundry.

Tu vais:

  • Gerar uma resposta a partir de um modelo
  • Crie um agente com um prompt definido
  • Realize uma conversa de vários turnos com o agente

Pré-requisitos

Define variáveis de ambiente e obtém o código

Armazena o endpoint do teu projeto como uma variável de ambiente. Defina também esses valores para uso em seus scripts.

PROJECT_ENDPOINT=<endpoint copied from welcome screen>
AGENT_NAME="MyAgent"
MODEL_DEPLOYMENT_NAME="gpt-4.1-mini"

Acompanhe abaixo ou obtenha o código:

Inicia sessão usando o comando CLI az login para autenticar antes de executar os teus scripts em Python.

Instalar e autenticar

Garante que instalas a versão correta de pré-visualização/pré-lançamento dos pacotes como mostrado aqui.

  1. Instale estes pacotes, incluindo a versão de pré-visualização de azure-ai-projects. Esta versão utiliza a API (nova) dos projetos Foundry (pré-visualização).

    pip install --pre "azure-ai-projects>=2.0.0b4"
    pip install python-dotenv
    
  2. Inicia sessão usando o comando CLI az login para autenticar antes de executar os teus scripts em Python.

Sugestão

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão Azure AI Projects 1.x.

Bate-papo com um modelo

Interagir com um modelo é o bloco de construção básico das aplicações de IA. Envie uma entrada e receba uma resposta do modelo:

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

print(f"Using PROJECT_ENDPOINT: {os.environ['PROJECT_ENDPOINT']}")
print(f"Using MODEL_DEPLOYMENT_NAME: {os.environ['MODEL_DEPLOYMENT_NAME']}")

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

openai_client = project_client.get_openai_client()

response = openai_client.responses.create(
    model=os.environ["MODEL_DEPLOYMENT_NAME"],
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

Depois de executar o código, vês uma resposta gerada por modelo na consola (por exemplo, um poema curto ou uma resposta ao teu prompt). Isto confirma que o endpoint do projeto, a autenticação e a implementação do modelo estão a funcionar corretamente.

Sugestão

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão Azure AI Projects 1.x.

Criar um agente

Crie um agente usando seu modelo implantado.

Um agente define o comportamento principal. Uma vez criado, ele garante respostas consistentes nas interações do usuário sem repetir instruções a cada vez. Você pode atualizar ou excluir agentes a qualquer momento.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent = project_client.agents.create_version(
    agent_name=os.environ["AGENT_NAME"],
    definition=PromptAgentDefinition(
        model=os.environ["MODEL_DEPLOYMENT_NAME"],
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

A saída confirma que o agente foi criado. Para separadores do SDK, vês o nome e o ID do agente impressos na consola.

Sugestão

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão Azure AI Projects 1.x.

Conversar com um agente

Utilize o agente previamente criado chamado "MyAgent" para interagir, fazendo uma pergunta e seguindo com uma questão relacionada. A conversa mantém o histórico destas interações.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent_name = os.environ["AGENT_NAME"]
openai_client = project_client.get_openai_client()

# Optional Step: Create a conversation to use with the agent
conversation = openai_client.conversations.create()
print(f"Created conversation (id: {conversation.id})")

# Chat with the agent to answer questions
response = openai_client.responses.create(
    conversation=conversation.id, #Optional conversation context for multi-turn
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

# Optional Step: Ask a follow-up question in the same conversation
response = openai_client.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(f"Response output: {response.output_text}")

Vês as respostas do agente a ambos os prompts. A resposta de seguimento demonstra que o agente mantém o histórico de conversas entre turnos.

Sugestão

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão Azure AI Projects 1.x.

Limpeza de recursos

Se você não precisar mais de nenhum dos recursos criados, exclua o grupo de recursos associado ao seu projeto.

  • No portal Azure, selecione o grupo de recursos e depois selecione Eliminar. Confirme que deseja excluir o grupo de recursos.

Próximo passo