Delen via


Een OpenAI-compatibele Google Gemini-API importeren

Van toepassing op: Alle API Management-lagen

In dit artikel leest u hoe u een OpenAI-compatibele Google Gemini-API importeert voor toegang tot modellen zoals gemini-2.0-flash. Voor deze modellen kan Azure API Management een eindpunt voor voltooiing van een openAI-compatibele chat beheren.

Meer informatie over het beheren van AI-API's in API Management:

Vereiste voorwaarden

Een OpenAI-compatibele Gemini-API importeren met behulp van de portal

  1. Blader in Azure Portal naar uw API Management-exemplaar.

  2. Selecteer in het linkermenu onder API'sAPI's, >.

  3. Selecteer onder Een nieuwe API definiërende taalmodel-API.

    Schermopname van het maken van een passthrough-taalmodel-API in de portal.

  4. Op het tabblad API configureren :

    1. Voer een weergavenaam en een optionele beschrijving voor de API in.

    2. Voer in de URL de volgende basis-URL in uit de compatibiliteitsdocumentatie van Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. Voeg in Pad een pad toe dat uw API Management-exemplaar gebruikt om aanvragen naar de Gemini-API-eindpunten te routeren.

    4. Selecteer Bij TypeopenAI-API maken.

    5. Voer in Access-sleutel het volgende in:

      1. Headernaam: Autorisatie.
      2. Headerwaarde (sleutel):Bearer gevolgd door uw API-sleutel voor de Gemini-API.

    Schermopname van het importeren van een Gemini LLM-API in de portal.

  5. Configureer op de resterende tabbladen eventueel beleidsregels voor het beheren van tokenverbruik, semantische caching en beveiliging van AI-inhoud. Zie Een taalmodel-API importeren voor meer informatie.

  6. Selecteer Beoordelen.

  7. Nadat de instellingen zijn gevalideerd, selecteert u Maken.

API Management maakt de API en configureert het volgende:

Gemini-model testen

Nadat u de API hebt geïmporteerd, kunt u het eindpunt voor voltooiing van de chat testen voor de API.

  1. Selecteer de API die u in de vorige stap hebt gemaakt.

  2. Selecteer het tabblad Testen.

  3. Selecteer de POST Creates a model response for the given chat conversation bewerking. Dit is een POST aanvraag voor het /chat/completions eindpunt.

  4. Voer in de sectie Aanvraagtekst de volgende JSON in om het model en een voorbeeldprompt op te geven. In dit voorbeeld wordt het gemini-2.0-flash model gebruikt.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Wanneer de test is geslaagd, reageert de back-end met een geslaagde HTTP-antwoordcode en enkele gegevens. Toegevoegd aan het antwoord zijn tokengebruiksgegevens om u te helpen bij het bewaken en beheren van het tokenverbruik van uw taalmodel.

    Schermopname van het testen van een Gemini LLM-API in de portal.