Megosztás a következőn keresztül:


OpenAI-kompatibilis Google Gemini API importálása

Minden API-kezelési szintre vonatkozik

Ez a cikk bemutatja, hogyan importálhat OpenAI-kompatibilis Google Gemini API-t az olyan modellek eléréséhez, mint a gemini-2.0-flash. Ezekhez a modellekhez az Azure API Management képes kezelni egy OpenAI-kompatibilis csevegésvégpontot.

További információ az AI API-k kezeléséről az API Managementben:

Előfeltételek

OpenAI-kompatibilis Gemini API importálása a portál használatával

  1. Az Azure Portalon keresse meg az API Management-példányt.

  2. A bal oldali menü API-k alatt válassza az hozzáadása lehetőséget.

  3. Az Új API definiálása területen válassza a Language Model API lehetőséget.

    Képernyőkép egy átmenő nyelvi modell API-jának a portálon való létrehozásáról.

  4. Az API konfigurálása lapon:

    1. Adja meg az API megjelenítendő nevét és opcionális leírását .

    2. Az URL-címben adja meg a következő alap URL-címet a Gemini OpenAI kompatibilitási dokumentációjából: https://generativelanguage.googleapis.com/v1beta/openai

    3. A Pathban fűzze hozzá az API Management-példány által a kérések Gemini API-végpontokhoz való átirányításához használt elérési utat.

    4. A Típus mezőben válassza az OpenAI API létrehozása lehetőséget.

    5. Az Access-kulcsban adja meg a következőket:

      1. Fejléc neve: Engedélyezés.
      2. Fejlécérték (kulcs): Bearer ezt követi a Gemini API API-kulcsa.

    Képernyőkép a Gemini LLM API portálon való importálásáról.

  5. A többi lapon igény szerint konfiguráljon szabályzatokat a jogkivonatok felhasználásának, a szemantikai gyorsítótárazásnak és az AI-tartalombiztonságnak a kezelésére. További részletekért lásd: Nyelvmodell API importálása.

  6. Válassza a Véleményezés lehetőséget.

  7. A beállítások érvényesítése után válassza a Létrehozás lehetőséget.

Az API Management létrehozza az API-t, és a következőket konfigurálja:

Gemini-modell tesztelése

Az API importálása után tesztelheti az API chat befejezési végpontját.

  1. Válassza ki az előző lépésben létrehozott API-t.

  2. Kattintson a Teszt fülre.

  3. Válassza ki a POST Creates a model response for the given chat conversation műveletet, amely a POST/chat/completions végpontra irányuló kérés.

  4. A Kérelem törzsében adja meg a következő JSON-t a modell és egy példaprompt megadásához. Ebben a példában a gemini-2.0-flash modell használatos.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Ha a teszt sikeres, a háttérrendszer egy sikeres HTTP-válaszkóddal és néhány adattal válaszol. A válaszhoz mellékelt tokenhasználati adatok segítenek a nyelvi modell tokenhasználatának monitorozásában és kezelésében.

    Képernyőkép a Gemini LLM API portálon való teszteléséről.