Partilhar via


Guia de início rápido: introdução ao Azure AI Foundry

Neste guia de início rápido, orientamos você na configuração do seu ambiente de desenvolvimento local com o SDK do Azure AI Foundry . Escrevemos um prompt, executamo-lo como parte do código do seu aplicativo, rastreamos as chamadas LLM que estão sendo feitas e executamos uma avaliação básica nas saídas do LLM.

Sugestão

O restante deste artigo mostra como usar um projeto baseado em hub. Selecione Projeto de fundição na parte superior deste artigo se quiser usar um projeto de fundição. De que tipo de projeto necessito?

Pré-requisitos

  • Uma assinatura do Azure. Se você não tiver uma assinatura do Azure, crie uma conta gratuita antes de começar.
  • Um projeto baseado em hub. Se você é novo no Azure AI Foundry e não tem um projeto baseado em hub, selecione Projeto do Foundry na parte superior deste artigo para usar um projeto do Foundry.

Configurar seu ambiente de desenvolvimento

  1. Configure seu ambiente de desenvolvimento

  2. Instale estes pacotes.

    pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
    

    Observação

    Diferentes tipos de projeto requerem diferentes versões do azure-ai-projects pacote. Para evitar conflitos, crie ambientes Python separados: use a versão 1.0.0b10 para projetos baseados em hub e a versão mais recente para projetos do Foundry.

Implementar um modelo

Sugestão

Como você pode personalizar o painel esquerdo no portal do Azure AI Foundry, poderá ver itens diferentes dos mostrados nestas etapas. Se não encontrar o que procura, selecione ... Mais informações na parte inferior do painel esquerdo.

  1. Entre no Azure AI Foundry.

  2. Selecione um projeto baseado em hub. Se não tiveres um projeto baseado em hub, seleciona projeto Foundry no topo deste artigo para usares um projeto Foundry.

  3. Selecione Catálogo de modelos no painel esquerdo.

  4. Selecione o modelo gpt-4o-mini na lista de modelos. Você pode usar a barra de pesquisa para encontrá-lo.

  5. Na página de detalhes do modelo, selecione Implantar.

    Captura de tela da página de detalhes do modelo com um botão para implantar o modelo.

  6. Deixe o nome de implantação padrão. Selecione Implantar.

  7. Depois de o modelo ter sido implementado, selecione Abrir no playground para testar o modelo.

Crie seu aplicativo de bate-papo

Crie um arquivo chamado chat.py. Copie e cole o seguinte código nele.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insira a cadeia de conexão

Sua cadeia de conexão de projeto é necessária para chamar o Azure OpenAI no Azure AI Foundry Models a partir do seu código.

Encontre sua cadeia de conexão no projeto do Azure AI Foundry que você criou no início rápido do playground do Azure AI Foundry. Abra o projeto e localize a cadeia de conexão na página Visão geral .

A captura de tela mostra a página de visão geral de um projeto e o local da cadeia de conexão.

Copie a cadeia de conexão e substitua <your-connection-string-goes-here> no arquivo chat.py .

Execute seu script de bate-papo

Execute o script para ver a resposta do modelo.

python chat.py

Gerar prompt a partir da entrada do usuário e um modelo de prompt

O script usa mensagens de entrada e saída codificadas. Em um aplicativo real, você receberia a entrada de um aplicativo cliente, geraria uma mensagem do sistema com instruções internas para o modelo e, em seguida, chamaria o LLM com todas as mensagens.

Vamos alterar o script para obter entrada de um aplicativo cliente e gerar uma mensagem do sistema usando um modelo de prompt.

  1. Remova a última linha do script que imprime uma resposta.

  2. Agora defina uma get_chat_response função que recebe mensagens e contexto, gera uma mensagem do sistema usando um modelo de prompt e chama um modelo. Adicione este código ao seu ficheiro de chat.py existente:

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Observação

    O modelo de prompt usa o formato bigode.

    A função get_chat_response pode ser facilmente adicionada como uma rota para um aplicativo FastAPI ou Flask para permitir chamar essa função a partir de um aplicativo Web front-end.

  3. Agora simule a passagem de informações de um aplicativo frontend para essa função. Adicione o seguinte código ao final do arquivo chat.py . Sinta-se à vontade para brincar com a mensagem e adicionar seu próprio nome.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

Execute o script revisado para ver a resposta do modelo com essa nova entrada.

python chat.py

Limpeza de recursos

Se você não precisar mais de nenhum dos recursos criados, exclua o grupo de recursos associado ao seu projeto.

No portal do Azure AI Foundry, selecione o nome do seu projeto no canto superior direito. Em seguida, selecione o link para o grupo de recursos para abri-lo no portal do Azure. Selecione o grupo de recursos e, em seguida, selecione Excluir. Confirme que deseja excluir o grupo de recursos.

Próximo passo

Neste início rápido, você usa o Azure AI Foundry para:

  • Criar um projeto
  • Implementar um modelo
  • Executar uma finalização de chat
  • Criar e executar um agente
  • Carregar arquivos para o agente

O SDK do Azure AI Foundry está disponível em várias linguagens, incluindo Python, Java, JavaScript e C#. Este guia de início rápido fornece instruções para cada um desses idiomas.

Sugestão

O restante deste artigo mostra como usar um projeto do Foundry. Selecione projeto baseado em hub na parte superior deste artigo se quiser usar um projeto baseado em hub. De que tipo de projeto necessito?

Pré-requisitos

  • Uma assinatura do Azure. Se você não tiver uma assinatura do Azure, crie uma conta gratuita antes de começar.
  • Você deve ser o proprietário da assinatura para receber o controle de acesso apropriado necessário para usar seu projeto.

Importante

Os itens marcados como (pré-visualização) neste artigo estão neste momento em pré-visualização pública. Esta pré-visualização é fornecida sem um acordo de nível de serviço, e não a recomendamos para trabalhos em produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas. Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.

Comece com um projeto e modelo

  1. Inicie sessão no portal do Azure AI Foundry.

  2. Na página inicial, pesquise e selecione o modelo gpt-4o .

    A captura de tela mostra como começar a criar um Agente no portal do Azure AI Foundry.

  3. Na página de detalhes do modelo, selecione Usar este modelo.

  4. Preencha um nome para usar em seu projeto e selecione Criar.

  5. Uma vez que os seus recursos são criados, você está na zona de chat.

Configurar o ambiente

Nenhuma instalação é necessária para usar o portal do Azure AI Foundry.

Executar uma finalização de chat

A conclusão do bate-papo é o bloco de construção básico dos aplicativos de IA. Utilizando as funcionalidades de conclusão de chat, pode enviar uma lista de mensagens e obter uma resposta do modelo.

  1. No playground de bate-papo, preencha o prompt e selecione o botão Enviar .
  2. O modelo retorna uma resposta no painel Resposta .

Conversar com um agente

Os agentes têm capacidades poderosas através do uso de ferramentas. Comece conversando com um agente.

Quando você estiver pronto para experimentar um agente, um agente padrão será criado para você. Para conversar com este agente:

  1. No painel esquerdo, selecione Playgrounds.
  2. No cartão Agents playground , selecione Let's go.
  3. Adicione instruções, como "Você é um assistente de escrita útil."
  4. Comece a conversar com seu agente, por exemplo: "Escreva-me um poema sobre flores".

Adicionar arquivos ao agente

Agora vamos adicionar uma ferramenta de pesquisa de arquivos que nos permite fazer a recuperação de conhecimento.

  1. No painel Configuração do agente, desloque-se para baixo, se necessário, para encontrar Conhecimento.
  2. Selecione Adicionar.
  3. Selecione Arquivos para carregar o arquivo product_info_1.md .
  4. Selecione Selecionar arquivos locais em Adicionar arquivos.
  5. Selecione Carregar e guardar.
  6. Altere as instruções dos agentes, como "Você é um assistente útil e pode pesquisar informações de arquivos carregados".
  7. Faça uma pergunta, como "Olá, quais produtos da Contoso você conhece?"
  8. Para adicionar mais arquivos, selecione o ... no AgentVectorStore e, em seguida, selecione Gerenciar.

Limpeza de recursos

Se você não precisar mais de nenhum dos recursos criados, exclua o grupo de recursos associado ao seu projeto.

No portal do Azure AI Foundry, selecione o nome do seu projeto no canto superior direito. Em seguida, selecione o link para o grupo de recursos para abri-lo no portal do Azure. Selecione o grupo de recursos e, em seguida, selecione Excluir. Confirme que deseja excluir o grupo de recursos.

Próximo passo