Compartilhar via


Importar uma API do Google Gemini compatível com OpenAI

APLICA-SE A: todas as camadas do Gerenciamento de API

Este artigo mostra como importar uma API do Google Gemini compatível com OpenAI para acessar modelos como gemini-2.0-flash. Para esses modelos, o API Management do Azure pode gerenciar um endpoint de conclusão de chat compatível com OpenAI.

Saiba mais sobre como gerenciar APIs de IA no Gerenciamento de API:

Pré-requisitos

Importar uma API Gemini compatível com OpenAI usando o portal

  1. No portal do Azure, navegue até a instância do Gerenciamento de API.

  2. No menu do lado esquerdo, em APIs, selecione APIs>+ Adicionar API.

  3. Em Definir uma nova API, selecione API de Modelo de Idioma.

    Captura de tela da criação de uma API de modelo de linguagem de passagem no portal.

  4. Na guia Configurar API :

    1. Insira um Nome de exibição e uma Descrição opcional para a API.

    2. Na URL, insira a seguinte URL base na documentação de compatibilidade do Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. No Caminho, acrescente um caminho que sua instância de Gerenciamento de API usa para rotear solicitações para os pontos de extremidade da API Gemini.

    4. Em Tipo, selecione Criar API OpenAI.

    5. Na chave do Access, insira o seguinte:

      1. Nome do cabeçalho: Autorização.
      2. Valor do cabeçalho (chave): Bearer seguido pela chave de API para a API do Gemini.

    Captura de tela da importação de uma API gemini LLM no portal.

  5. Nas guias restantes, opcionalmente, configure políticas para gerenciar o consumo de token, o cache semântico e a segurança do conteúdo de IA. Para obter detalhes, consulte Importar uma API de modelo de idioma.

  6. Selecione Examinar.

  7. Após as configurações terem sido validadas, selecione Criar.

O Gerenciamento de API cria a API e configura o seguinte:

  • Um recurso de back-end e uma política set-back-end-service que direciona as solicitações de API para o ponto de extremidade do Serviço OpenAI do Azure.
  • Acesse o back-end LLM usando a chave da API Gemini que você forneceu. A chave é protegida como um valor nomeado secreto no Gerenciamento de API.
  • (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.

Testar o modelo Gemini

Depois de importar a API, você pode testar o ponto de extremidade de conclusões de chat para a API.

  1. Selecione a API que você criou na etapa anterior.

  2. Selecione a guia Testar.

  3. Selecione a operação POST Creates a model response for the given chat conversation, que é uma solicitação POST para o endpoint /chat/completions.

  4. Na seção Corpo da solicitação , insira o JSON a seguir para especificar o modelo e um prompt de exemplo. Neste exemplo, o gemini-2.0-flash modelo é usado.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Quando o teste é bem-sucedido, o back-end responde com um código de resposta HTTP bem-sucedido e alguns dados. Acrescentados à resposta estão os dados de uso de token para ajudá-lo a monitorar e gerenciar o consumo de token do modelo de idioma.

    Captura de tela do teste de uma API do Gemini LLM no portal.