Compartilhar via


Importar uma API do Microsoft Foundry

APLICA-SE A: todas as camadas do Gerenciamento de API

Você pode importar endpoints de modelos de IA implantados no Microsoft Foundry para sua instância de Gerenciamento de API como APIs. Use políticas de gateway de IA e outros recursos no Gerenciamento de API para simplificar a integração, melhorar a observabilidade e aprimorar o controle sobre os pontos de extremidade do modelo.

Saiba mais sobre como gerenciar APIs de IA no Gerenciamento de API:

Opções de compatibilidade do cliente

O Gerenciamento de API dá suporte a duas opções de compatibilidade do cliente para APIs de IA do Microsoft Foundry. Ao importar a API usando o assistente, escolha a opção adequada para a implantação do modelo. A opção determina como os clientes chamam a API e como a instância de Gerenciamento de API roteia solicitações para o serviço de IA.

  • Azure OpenAI – Gerenciar o Azure OpenAI em implantações de modelo do Microsoft Foundry.

    Os clientes chamam a implantação em um ponto de extremidade /openai, como /openai/deployments/my-deployment/chat/completions. O nome da implantação é passado no caminho da solicitação. Use essa opção se o serviço de IA incluir apenas implantações de modelo do Azure OpenAI.

  • IA do Azure – Gerenciar endpoints de modelos no Microsoft Foundry expostos por meio da API de Inferência de Modelos de IA do Azure.

    Os clientes chamam a implantação em um ponto de extremidade /models, como /my-model/models/chat/completions. O nome da implantação é passado no corpo da solicitação. Use essa opção se você quiser flexibilidade para alternar entre modelos expostos por meio da API de Inferência do Modelo de IA do Azure e aqueles implantados no Azure OpenAI nos Modelos Foundry.

Pré-requisitos

  • Uma instância de Gerenciamento de API existente. Crie uma, se ainda não tiver.

  • Um serviço de IA do Azure em sua assinatura com um ou mais modelos implantados. Exemplos incluem modelos implantados no Microsoft Foundry ou no Azure OpenAI.

Importar a API do Microsoft Foundry usando o portal

Use as etapas a seguir para importar uma API de IA para o Gerenciamento de API.

Quando você importa a API, o Gerenciamento de API configura automaticamente o seguinte:

  • Operações para cada um dos pontos de extremidade da API REST da API
  • Uma identidade atribuída pelo sistema com as permissões necessárias para acessar a implantação do serviço de IA.
  • Um recurso de backend e uma política set-backend-service que direcionam solicitações de API para o endpoint do serviço de IA.
  • Autenticação para o back-end usando a identidade gerenciada atribuída pelo sistema da instância.
  • (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.

Para importar uma API do Microsoft Foundry para o Gerenciamento de API:

  1. No portal do Azure, navegue até a instância do Gerenciamento de API.

  2. No menu do lado esquerdo, em APIs, selecione APIs>+ Adicionar API.

  3. Em Criar a partir do recurso do Azure, selecione Microsoft Foundry.

    Captura de tela da criação de uma API compatível com OpenAI no portal.

  4. Na guia Selecionar serviço de IA :

    1. Selecione a assinatura na qual pesquisar serviços de IA. Para obter informações sobre as implantações de modelo em um serviço, selecione o link de implantações ao lado do nome do serviço. Captura de tela das implantações de um serviço de IA no portal.
    2. Selecione um serviço de IA.
    3. Selecione Próximo.
  5. Na guia Configurar API :

    1. Insira um Nome de exibição e uma Descrição opcional para a API.

    2. No caminho base, insira um caminho que sua instância de Gerenciamento de API usa para acessar o ponto de extremidade de implantação.

    3. Opcionalmente, selecione um ou mais Produtos a serem associados à API.

    4. Na compatibilidade do cliente, selecione um dos seguintes com base nos tipos de cliente que você pretende dar suporte. Consulte as opções de compatibilidade do cliente para obter mais informações.

      • Azure OpenAI – Selecione essa opção se seus clientes só precisarem acessar o Azure OpenAI em implantações de modelo do Microsoft Foundry.
      • IA do Azure – selecione essa opção se os clientes precisarem acessar outros modelos no Microsoft Foundry.
    5. Selecione Próximo.

      Captura de tela da configuração da API do Microsoft Foundry no portal.

  6. Na guia Gerenciar consumo de token , opcionalmente, insira configurações ou aceite padrões que definem as seguintes políticas para ajudar a monitorar e gerenciar a API:

  7. Na guia Aplicar cache semântico , opcionalmente insira configurações ou aceite padrões que definem as políticas para ajudar a otimizar o desempenho e reduzir a latência da API:

  8. Na segurança do conteúdo de IA, opcionalmente insira configurações ou aceite padrões para configurar o serviço de Segurança de Conteúdo de IA do Azure para bloquear prompts com conteúdo não seguro:

  9. Selecione Revisar.

  10. Após as configurações terem sido validadas, selecione Criar.

Testar a API de IA

Para garantir que sua API de IA esteja funcionando conforme o esperado, teste-a no console de teste do Gerenciamento de API.

  1. Selecione a API que você criou na etapa anterior.

  2. Selecione a guia Testar.

  3. Selecione uma operação compatível com a implantação do modelo. A página mostra os campos dos parâmetros e cabeçalhos.

  4. Insira parâmetros e cabeçalhos conforme necessário. Dependendo da operação, talvez seja necessário configurar ou atualizar um corpo da solicitação.

    Observação

    No console de teste, o Gerenciamento de API preenche automaticamente um cabeçalho Ocp-Apim-Subscription-Key e configura a chave de assinatura da assinatura interna de acesso total. Essa chave permite o acesso a todas as API na instância de Gerenciamento de API. Opcionalmente, exiba o cabeçalho Ocp-Apim-Subscription-Key selecionando o ícone "olho" ao lado da Solicitação HTTP.

  5. Selecione Enviar.

    Quando o teste é bem-sucedido, o back-end responde com um código de resposta HTTP bem-sucedido e alguns dados. Acrescentados à resposta estão os dados de uso de token para ajudá-lo a monitorar e gerenciar o consumo de token do modelo de idioma.