Ескертпе
Бұл бетке кіру үшін қатынас шегін айқындау қажет. Жүйеге кіруді немесе каталогтарды өзгертуді байқап көруге болады.
Бұл бетке кіру үшін қатынас шегін айқындау қажет. Каталогтарды өзгертуді байқап көруге болады.
ПРИМЕНЯЕТСЯ КО ВСЕМ уровням управления API
Конечные точки языковой модели, совместимые с OpenAI, можно импортировать в экземпляр службы управления API в качестве API. Вы также можете импортировать языковые модели, которые несовместимы с OpenAI, в качестве посреднического API, который перенаправляют запросы непосредственно на внутренние конечные точки. Например, вы можете управлять LLM, размещенным на локальном узле или размещенным в поставщике вывода, отличном от служб ИИ Azure. Используйте политики шлюза ИИ и другие возможности в службе "Управление API", чтобы упростить интеграцию, улучшить наблюдаемость и повысить контроль над конечными точками модели.
Узнайте больше об управлении AI API в API Management.
Типы API языковой модели
Управление API поддерживает два типа API языковой модели для этого сценария. Выберите вариант, подходящий для развертывания модели. Параметр определяет, как клиенты вызывают API и как экземпляр управления API направляет запросы к службе ИИ.
Совместимая с OpenAI — конечные точки языковой модели, совместимые с API OpenAI. Примеры включают в себя некоторые модели, предоставляемые поставщиками инференции, такими как Hugging Face Text Generation Inference (TGI) и API Google Gemini.
Для LLM, совместимой с OpenAI, API Management настраивает точку завершения чата.
Сквозное руководство . Другие конечные точки языковой модели, несовместимые с API OpenAI. Примеры включают модели, развернутые в Amazon Bedrock или других поставщиках.
Управление API настраивает подстановочные знаки для распространенных http-команд. Клиенты могут добавлять пути к операциям подстановочных знаков, а система управления API передает запросы на бэкенд.
Предпосылки
- Существующий экземпляр системы управления API. Создайте его, если у вас его нет.
- Локальное развертывание языковой модели, не предоставляемой Azure, с конечной точкой API.
Импорт API языковой модели с помощью портала
При импорте API LLM на портале управление API автоматически настраивает:
- Внутренний ресурс и политика set-backend-service, которые направляют запросы API к конечной точке LLM.
- (необязательно) Доступ к серверной части LLM с помощью предоставленного ключа доступа. Ключ защищен как секретное именованное значение в службе управления API.
- (необязательно) Политики, помогающие отслеживать API и управлять ими.
Чтобы импортировать API языковой модели в управление API, выполните следующие действия.
Перейдите на портал Azure и откройте ваш экземпляр диспетчера API.
В меню слева в разделе API выберите API>+ Добавить API.
В разделе "Определение нового API" выберите API языковой модели.
На вкладке "Настройка API" :
- Введите отображаемое имя и необязательное описание для API.
- Введите URL-адрес конечной точки API LLM.
- При необходимости выберите один или несколько продуктов для связывания с API.
- В path добавьте путь, который используется экземпляром службы управления API для доступа к конечным точкам API LLM.
- В поле "Тип" выберите "Создать API OpenAI" или "Создать сквозной API". Дополнительные сведения см. в разделе "Типы API языковой модели ".
- В поле Access key введите имя заголовка авторизации и ключ API, используемые для доступа к API LLM, если это необходимо.
- Нажмите кнопку Далее.
На вкладке "Управление потреблением маркеров " при необходимости введите параметры или примите значения по умолчанию, определяющие следующие политики, которые помогают отслеживать API и управлять ими:
На вкладке "Применить семантический кэширование" при необходимости введите параметры или примите значения по умолчанию, определяющие политики, которые помогают оптимизировать производительность и сократить задержку для API:
В безопасности содержимого ИИ при необходимости введите параметры или примите значения по умолчанию, чтобы настроить службу безопасности содержимого ИИ Azure, чтобы заблокировать запросы с небезопасным содержимым:
Выберите Review.
После проверки параметров нажмите кнопку "Создать".
Управление API создает API и настраивает операции для конечных точек LLM. По умолчанию ДЛЯ API требуется подписка на управление API.
Тестирование API LLM
Чтобы убедиться, что API LLM работает должным образом, протестируйте его в консоли тестирования УПРАВЛЕНИЯ API.
Выберите API, созданный на предыдущем шаге.
Откройте вкладку Тест.
Выберите операцию, совместимую с развертыванием модели. На странице отображаются поля для параметров и заголовков.
При необходимости введите параметры и заголовки. В зависимости от операции может потребоваться настроить или обновить текст запроса.
Замечание
В тестовой консоли Управление API автоматически заполняет заголовок Ocp-Apim-Subscription-Key и настраивает ключ подписки встроенной подписки с полным доступом. Этот ключ обеспечивает доступ ко всем API в экземпляре управления API. При необходимости отобразите заголовок Ocp-Apim-Subscription-Key, выбрав значок "глаз" рядом с HTTP-запросом.
Выберите Отправить.
При успешном выполнении теста серверная часть возвращает успешный HTTP-код ответа и некоторые данные. Добавлен к ответу данные об использовании маркеров, помогающие отслеживать потребление маркеров языковой модели и управлять ими.