Поделиться через


Импортировать API Google Gemini, совместимое с OpenAI

ПРИМЕНИМО К: все уровни API Management

В этой статье описывается, как импортировать API Google Gemini, совместимое с OpenAI, для доступа к моделям, таким как gemini-2.5-flash-lite. Для этих моделей Azure API Management может управлять конечной точкой завершения чата, совместимой с OpenAI.

Дополнительные сведения об управлении API ИИ см. в API Management:

Предпосылки

  • Существующий экземпляр API Management. Создайте его, если у вас его нет.
  • Ключ API для API Gemini. Если у вас его нет, создайте его в Google AI Studio и сохраните его в безопасном месте.

Импорт API Gemini, совместимого с OpenAI, с помощью портала

  1. В Azure portal откройте экземпляр API Management.

  2. В меню слева в разделе API выберите API>+ Добавить API.

  3. В разделе "Определение нового API" выберите API языковой модели.

    Снимок экрана: создание API модели сквозного языка на портале.

  4. На вкладке "Настройка API" :

    1. Введите отображаемое имя и необязательное описание для API.

    2. В url-адресе введите следующий базовый URL-адрес из документации по совместимости Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. В Path добавьте путь, который экземпляр API Management использует для маршрутизации запросов к конечным точкам API Gemini.

    4. В поле "Тип" выберите "Создать API OpenAI".

    5. В Access key введите следующее:

      1. Имя заголовка: авторизация.
      2. Значение заголовка (ключ): Bearer за ним следует ключ API для API Gemini.

    Снимок экрана: импорт API Gemini LLM на портале.

  5. На оставшихся вкладках при необходимости настройте политики для управления потреблением токенов, семантического кэширования и безопасностью контента ИИ. Дополнительные сведения см. в разделе "Импорт API языковой модели".

  6. Выберите Review.

  7. После проверки параметров на портале нажмите кнопку "Создать".

API Management создает API и настраивает следующее:

  • Ресурс для бэкенда и политика настройки бэкенд-службы, которые направляют запросы API к конечной точке Google Gemini.
  • Доступ к серверу LLM с помощью предоставленного вами ключа API Gemini. API Management защищает ключ как секрет под названием значение.
  • (необязательно) Политики, помогающие отслеживать API и управлять ими.

Тестирование модели Gemini

После импорта API можно протестировать конечную точку завершения чата для API.

  1. Выберите API, созданный на предыдущем шаге.

  2. Откройте вкладку Тест.

  3. POST Creates a model response for the given chat conversation Выберите операцию, которая является запросом к конечной POST точке/chat/completions.

  4. В разделе "Текст запроса" введите следующий код JSON, чтобы указать модель и пример запроса. В этом примере используется модель gemini-2.5-flash-lite.

    {
        "model": "gemini-2.5-flash-lite",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    При успешном выполнении теста серверная часть отвечает с помощью успешного кода HTTP-ответа и некоторых данных. Ответ включает данные об использовании маркеров, помогающие отслеживать потребление маркеров языковой модели и управлять ими.

    Снимок экрана: тестирование API LLM Gemini на портале.