Megjegyzés
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhat bejelentkezni vagy módosítani a címtárat.
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhatja módosítani a címtárat.
Minden API-kezelési szintre vonatkozik
Ez a cikk bemutatja, hogyan importálhat OpenAI-kompatibilis Google Gemini API-t az olyan modellek eléréséhez, mint a gemini-2.0-flash. Ezekhez a modellekhez az Azure API Management képes kezelni egy OpenAI-kompatibilis csevegésvégpontot.
További információ az AI API-k kezeléséről az API Managementben:
Előfeltételek
- Egy meglévő API Management-példány. Hozzon létre egyet, amennyiben még nem tette meg.
- Egy API-kulcs a Gemini API-hoz. Ha nem rendelkezik ilyennel, hozza létre a Google AI Studióban , és tárolja biztonságos helyen.
OpenAI-kompatibilis Gemini API importálása a portál használatával
Az Azure Portalon keresse meg az API Management-példányt.
A bal oldali menü API-k alatt válassza az hozzáadása lehetőséget.
Az Új API definiálása területen válassza a Language Model API lehetőséget.
Az API konfigurálása lapon:
Adja meg az API megjelenítendő nevét és opcionális leírását .
Az URL-címben adja meg a következő alap URL-címet a Gemini OpenAI kompatibilitási dokumentációjából:
https://generativelanguage.googleapis.com/v1beta/openaiA Pathban fűzze hozzá az API Management-példány által a kérések Gemini API-végpontokhoz való átirányításához használt elérési utat.
A Típus mezőben válassza az OpenAI API létrehozása lehetőséget.
Az Access-kulcsban adja meg a következőket:
- Fejléc neve: Engedélyezés.
-
Fejlécérték (kulcs):
Bearerezt követi a Gemini API API-kulcsa.
A többi lapon igény szerint konfiguráljon szabályzatokat a jogkivonatok felhasználásának, a szemantikai gyorsítótárazásnak és az AI-tartalombiztonságnak a kezelésére. További részletekért lásd: Nyelvmodell API importálása.
Válassza a Véleményezés lehetőséget.
A beállítások érvényesítése után válassza a Létrehozás lehetőséget.
Az API Management létrehozza az API-t, és a következőket konfigurálja:
- Egy háttérerőforrás és egy set-backend-service szabályzat, amely az API-kéréseket a Google Gemini-végpontra irányítja.
- Hozzáférés az LLM-háttérrendszerhez a megadott Gemini API-kulccsal. A kulcs titkos névvel ellátott értékként van védve az API Managementben.
- (opcionálisan) Szabályzatok az API figyeléséhez és kezeléséhez.
Gemini-modell tesztelése
Az API importálása után tesztelheti az API chat befejezési végpontját.
Válassza ki az előző lépésben létrehozott API-t.
Kattintson a Teszt fülre.
Válassza ki a
POST Creates a model response for the given chat conversationműveletet, amely aPOST/chat/completionsvégpontra irányuló kérés.A Kérelem törzsében adja meg a következő JSON-t a modell és egy példaprompt megadásához. Ebben a példában a
gemini-2.0-flashmodell használatos.{ "model": "gemini-2.0-flash", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }Ha a teszt sikeres, a háttérrendszer egy sikeres HTTP-válaszkóddal és néhány adattal válaszol. A válaszhoz mellékelt tokenhasználati adatok segítenek a nyelvi modell tokenhasználatának monitorozásában és kezelésében.