Бөлісу құралы:


Кэширование ответов на запросы API большой языковой модели

ОБЛАСТЬ ПРИМЕНЕНИЯ: все уровни Управление API

Политика llm-semantic-cache-store кэширует ответы на запросы API завершения чата в настроенный внешний кэш. Кэширование ответов снижает требования к пропускной способности и обработке, введенные серверной частью API OpenAI, и снижает задержку, воспринимаемую потребителями API.

Примечание.

Примечание.

Задайте элементы политики и дочерние элементы в порядке, указанном в правиле политики. Узнайте, как устанавливать или изменять политики службы управления API.

Поддерживаемые модели

Используйте политику с API LLM, добавленными в службу управления API Azure, доступные через API вывода модели ИИ Azure или с моделями, совместимыми с OpenAI, которые обслуживаются сторонними поставщиками выводов.

Правило политики

<llm-semantic-cache-store duration="seconds"/>

Атрибуты

Атрибут Описание Обязательное поле По умолчанию.
продолжительность Срок жизни кэшированных записей (в секундах). Допустимы выражения политики. Да Н/П

Использование

Примечания об использовании

  • Эту политику можно использовать только один раз в разделе политики.
  • Если поиск кэша завершается сбоем, вызов API, использующий операцию, связанную с кэшем, не вызывает ошибку, и операция кэша успешно завершается.
  • Мы рекомендуем настроить политику ограничения скорости (или политику ограничения скорости по ключу ) сразу после поиска кэша. Это помогает сохранить серверную службу от перегрузки, если кэш недоступен.

Примеры

Пример с соответствующей политикой поиска llm-semantic-cache-lookup

В следующем примере показано, как использовать llm-semantic-cache-lookup политику вместе с llm-semantic-cache-store политикой для получения семантически аналогичных кэшированных ответов с пороговым значением оценки сходства 0,05. Кэшированные значения секционируются по идентификатору подписки вызывающего объекта.

Примечание.

Добавьте политику ограничения скорости (или политику ограничения скорости по ключу ) после поиска кэша, чтобы ограничить количество вызовов и предотвратить перегрузку серверной службы в случае, если кэш недоступен.

<policies>
    <inbound>
        <base />
        <llm-semantic-cache-lookup
            score-threshold="0.05"
            embeddings-backend-id ="llm-backend"
            embeddings-backend-auth ="system-assigned" >
            <vary-by>@(context.Subscription.Id)</vary-by>
        </llm-semantic-cache-lookup>
        <rate-limit calls="10" renewal-period="60" />
    </inbound>
    <outbound>
        <llm-semantic-cache-store duration="60" />
        <base />
    </outbound>
</policies>

Дополнительные сведения о работе с политиками см. в нижеуказанных статьях.