Compartilhar via


Início rápido do Microsoft Foundry

Neste início rápido, você vai começar a usar modelos e agentes no Foundry.

Você vai:

  • Gerar uma resposta de um modelo
  • Criar um agente com um prompt definido
  • Ter uma conversa de vários turnos com o agente

Pré-requisitos

Definir variáveis de ambiente e obter o código

Armazene o ponto de extremidade do projeto como uma variável de ambiente. Defina também esses valores para uso em seus scripts.

PROJECT_ENDPOINT=<endpoint copied from welcome screen>
AGENT_NAME="MyAgent"
MODEL_DEPLOYMENT_NAME="gpt-4.1-mini"

Acompanhe abaixo ou obtenha o código:

Entre usando o comando da CLI az login para autenticar antes de executar seus scripts do Python.

Instalar e autenticar

Instale a versão prévia/pré-lançamento correta dos pacotes, conforme mostrado aqui.

  1. Instale esses pacotes, incluindo a versão prévia de azure-ai-projects. Esta versão usa a API de Projetos do Foundry (nova) (versão prévia).

    pip install --pre "azure-ai-projects>=2.0.0b4"
    pip install python-dotenv
    
  2. Entre usando o comando da CLI az login para autenticar antes de executar seus scripts do Python.

Dica

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão do Azure AI Projects 1.x.

Conversar com um modelo

Interagir com um modelo é o bloco de construção básico de aplicativos de IA. Envie uma entrada e receba uma resposta do modelo:

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

print(f"Using PROJECT_ENDPOINT: {os.environ['PROJECT_ENDPOINT']}")
print(f"Using MODEL_DEPLOYMENT_NAME: {os.environ['MODEL_DEPLOYMENT_NAME']}")

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

openai_client = project_client.get_openai_client()

response = openai_client.responses.create(
    model=os.environ["MODEL_DEPLOYMENT_NAME"],
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

Depois de executar o código, você verá uma resposta gerada por modelo no console (por exemplo, um poema curto ou resposta ao prompt). Isso confirma que o endpoint do projeto, a autenticação e a implantação do modelo estão funcionando corretamente.

Dica

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão do Azure AI Projects 1.x.

Criar um agente

Crie um agente usando seu modelo implantado.

Um agente define o comportamento principal. Uma vez criado, ele garante respostas consistentes nas interações do usuário sem repetir instruções a cada vez. Você pode atualizar ou excluir agentes a qualquer momento.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent = project_client.agents.create_version(
    agent_name=os.environ["AGENT_NAME"],
    definition=PromptAgentDefinition(
        model=os.environ["MODEL_DEPLOYMENT_NAME"],
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

A saída confirma que o agente foi criado. Para as guias do SDK, você vê o nome e a ID do agente impressos no console.

Dica

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão do Azure AI Projects 1.x.

Conversar com um agente

Use o agente criado anteriormente chamado "MyAgent" para interagir fazendo uma pergunta e um acompanhamento relacionado. A conversa mantém o histórico entre essas interações.

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent_name = os.environ["AGENT_NAME"]
openai_client = project_client.get_openai_client()

# Optional Step: Create a conversation to use with the agent
conversation = openai_client.conversations.create()
print(f"Created conversation (id: {conversation.id})")

# Chat with the agent to answer questions
response = openai_client.responses.create(
    conversation=conversation.id, #Optional conversation context for multi-turn
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

# Optional Step: Ask a follow-up question in the same conversation
response = openai_client.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(f"Response output: {response.output_text}")

Você vê as respostas do agente para ambos os prompts. A resposta de acompanhamento demonstra que o agente mantém o histórico de conversas entre turnos.

Dica

O código usa o Azure AI Projects 2.x e é incompatível com o Azure AI Projects 1.x. Consulte a documentação do Foundry (clássico) para a versão do Azure AI Projects 1.x.

Limpar os recursos

Se você não precisar mais de nenhum dos recursos que criou, exclua o grupo de recursos associado ao seu projeto.

  • No portal do Azure, selecione o grupo de recursos e, em seguida, selecione Excluir. Confirme se deseja excluir o grupo de recursos.

Próxima etapa