Поделиться через


Импортировать API Google Gemini, совместимое с OpenAI

ПРИМЕНЯЕТСЯ КО ВСЕМ уровням управления API

В этой статье показано, как импортировать API Google Gemini, совместимый с OpenAI, для доступа к таким моделям, как gemini-2.0-flash. Для этих моделей управление API Azure может управлять конечной точкой завершения чата, совместимого с OpenAI.

Узнайте больше об управлении AI API в API Management.

Предпосылки

  • Существующий экземпляр системы управления API. Создайте его, если у вас его нет.
  • Ключ API для API Gemini. Если у вас его нет, создайте его в Google AI Studio и сохраните его в безопасном месте.

Импорт API Gemini, совместимый с OpenAI, с помощью портала

  1. Перейдите на портал Azure и откройте ваш экземпляр диспетчера API.

  2. В меню слева в разделе API выберите API>+ Добавить API.

  3. В разделе "Определение нового API" выберите API языковой модели.

    Снимок экрана: создание API модели сквозного языка на портале.

  4. На вкладке "Настройка API" :

    1. Введите отображаемое имя и необязательное описание для API.

    2. В url-адресе введите следующий базовый URL-адрес из документации по совместимости Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. В path добавьте путь, который используется экземпляром службы управления API для маршрутизации запросов к конечным точкам API Gemini.

    4. В поле "Тип" выберите "Создать API OpenAI".

    5. В разделе "Ключ доступа" введите следующее:

      1. Имя заголовка: авторизация.
      2. Значение заголовка (ключ): Bearer за ним следует ключ API для API Gemini.

    Снимок экрана: импорт API Gemini LLM на портале.

  5. На оставшихся вкладках при необходимости настройте политики для управления потреблением токенов, семантического кэширования и безопасностью контента ИИ. Дополнительные сведения см. в разделе "Импорт API языковой модели".

  6. Выберите Review.

  7. После проверки параметров нажмите кнопку "Создать".

Управление API создает API и настраивает следующее:

  • Ресурс для бэкенда и политика настройки бэкенд-службы, которые направляют запросы API к конечной точке Google Gemini.
  • Доступ к серверной части LLM с помощью предоставленного ключа API Gemini. Ключ защищен как секретное именованное значение в службе управления API.
  • (необязательно) Политики, помогающие отслеживать API и управлять ими.

Тестирование модели Gemini

После импорта API можно протестировать конечную точку завершения чата для API.

  1. Выберите API, созданный на предыдущем шаге.

  2. Откройте вкладку Тест.

  3. POST Creates a model response for the given chat conversation Выберите операцию, которая является запросом к конечной POST точке/chat/completions.

  4. В разделе "Текст запроса" введите следующий код JSON, чтобы указать модель и пример запроса. В этом примере используется модель gemini-2.0-flash.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    При успешном выполнении теста серверная часть возвращает успешный HTTP-код ответа и некоторые данные. Добавлен к ответу данные об использовании маркеров, помогающие отслеживать потребление маркеров языковой модели и управлять ими.

    Снимок экрана: тестирование API LLM Gemini на портале.