共用方式為


匯入與 OpenAI 相容的 Google Gemini API

適用於:所有 API 管理層級

本文說明如何匯入與 OpenAI 相容的 Google Gemini API,以存取例如 的 gemini-2.0-flash模型。 針對這些模型,Azure API 管理可以管理 OpenAI 相容的聊天完成端點。

深入瞭解在 API 管理中管理 AI API:

先決條件

使用入口網站匯入與 OpenAI 相容的 Gemini API

  1. Azure 入口網站中,流覽至您的 API 管理實例。

  2. 在左側功能表 的 [API] 底下,選取 [API]>[+ 新增 API]

  3. [定義新的 API] 下,選取 [ 語言模型 API]。

    在入口網站中建立傳遞語言模型 API 的螢幕快照。

  4. 在 [設定 API] 索引標籤上:

    1. 輸入 API 的 [顯示名稱] 和選擇性 [描述]

    2. [URL] 中,輸入 Gemini OpenAI 兼容性文件中的下列基底 URL: https://generativelanguage.googleapis.com/v1beta/openai

    3. 路徑 中,新增 API 管理實例用於將請求路由到 Gemini API 端點的路徑。

    4. [類型] 中,選取 [建立 OpenAI API]。

    5. 存取金鑰 中,輸入以下內容:

      1. 標頭名稱授權
      2. 標頭值 (key)Bearer 後面接著您的 Gemini API 金鑰。

    在入口網站中匯入 Gemini LLM API 的螢幕快照。

  5. 在其餘索引標籤上,選擇性地設定原則來管理權杖取用、語意快取和 AI 內容安全性。 如需詳細資訊,請參閱 匯入語言模型 API

  6. 選取 檢閱

  7. 驗證設定之後,請選取 [建立]

API 管理會建立 API 並設定以下項目:

  • 將 API 要求導至 Google Gemini 端點的 後端 資源和 set-backend-service 策略。
  • 使用您提供的 Gemini API 金鑰存取 LLM 後端。 在 API 管理中,金鑰被保護為秘密的 具名值
  • (選擇性)可協助您監視和管理 API 的原則。

測試雙子座模型

匯入 API 之後,您可以測試 API 的聊天完成端點。

  1. 選取您在上一個步驟中建立的 API。

  2. 選取 [測試] 索引標籤。

  3. 選取 POST Creates a model response for the given chat conversation 作業,這是對 /chat/completions 端點的 POST 要求。

  4. 請求主體 區段中,輸入下列 JSON 來指定模型和範例提示。 在此範例中,使用了gemini-2.0-flash模型。

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    測試成功時,後端會以成功的 HTTP 回應碼和某些資料進行回應。 附加至回應是令牌使用方式數據,可協助您監視和管理語言模型令牌耗用量。

    在入口網站中測試 Gemini LLM API 的螢幕快照。