Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
ПРИМЕНИМО К: все уровни API Management
В этой статье описывается, как импортировать API Google Gemini, совместимое с OpenAI, для доступа к моделям, таким как gemini-2.5-flash-lite. Для этих моделей Azure API Management может управлять конечной точкой завершения чата, совместимой с OpenAI.
Дополнительные сведения об управлении API ИИ см. в API Management:
- возможности шлюза AI в Azure API Management
- Импорт API языковой модели
Предпосылки
- Существующий экземпляр API Management. Создайте его, если у вас его нет.
- Ключ API для API Gemini. Если у вас его нет, создайте его в Google AI Studio и сохраните его в безопасном месте.
Импорт API Gemini, совместимого с OpenAI, с помощью портала
В Azure portal откройте экземпляр API Management.
В меню слева в разделе API выберите API>+ Добавить API.
В разделе "Определение нового API" выберите API языковой модели.
На вкладке "Настройка API" :
Введите отображаемое имя и необязательное описание для API.
В url-адресе введите следующий базовый URL-адрес из документации по совместимости Gemini OpenAI:
https://generativelanguage.googleapis.com/v1beta/openaiВ Path добавьте путь, который экземпляр API Management использует для маршрутизации запросов к конечным точкам API Gemini.
В поле "Тип" выберите "Создать API OpenAI".
В Access key введите следующее:
- Имя заголовка: авторизация.
-
Значение заголовка (ключ):
Bearerза ним следует ключ API для API Gemini.
На оставшихся вкладках при необходимости настройте политики для управления потреблением токенов, семантического кэширования и безопасностью контента ИИ. Дополнительные сведения см. в разделе "Импорт API языковой модели".
Выберите Review.
После проверки параметров на портале нажмите кнопку "Создать".
API Management создает API и настраивает следующее:
- Ресурс для бэкенда и политика настройки бэкенд-службы, которые направляют запросы API к конечной точке Google Gemini.
- Доступ к серверу LLM с помощью предоставленного вами ключа API Gemini. API Management защищает ключ как секрет под названием значение.
- (необязательно) Политики, помогающие отслеживать API и управлять ими.
Тестирование модели Gemini
После импорта API можно протестировать конечную точку завершения чата для API.
Выберите API, созданный на предыдущем шаге.
Откройте вкладку Тест.
POST Creates a model response for the given chat conversationВыберите операцию, которая является запросом к конечнойPOSTточке/chat/completions.В разделе "Текст запроса" введите следующий код JSON, чтобы указать модель и пример запроса. В этом примере используется модель
gemini-2.5-flash-lite.{ "model": "gemini-2.5-flash-lite", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }При успешном выполнении теста серверная часть отвечает с помощью успешного кода HTTP-ответа и некоторых данных. Ответ включает данные об использовании маркеров, помогающие отслеживать потребление маркеров языковой модели и управлять ими.
Связанный контент
- возможности шлюза AI в Azure API Management