Sdílet prostřednictvím


Importujte API modelu jazyka

PLATÍ PRO: Všechny úrovně služby správy rozhraní API

Koncové body jazykového modelu kompatibilní s OpenAI můžete importovat do instance služby API Management nebo importovat nekompatibilní modely jako předávací rozhraní API. Můžete například spravovat místní llmy nebo ty, které jsou hostované na jiných poskytovatelích odvozování než Foundry Tools. Pomocí zásad brány AI a dalších funkcí služby API Management můžete zjednodušit integraci, zlepšit pozorovatelnost a zlepšit kontrolu nad koncovými body modelu.

Další informace o správě rozhraní API AI ve službě API Management:

Typy rozhraní API jazykového modelu

API Management podporuje dva typy rozhraní API jazykového modelu. Zvolte možnost, která odpovídá vašemu nasazení modelu, která určuje, jak klienti volají rozhraní API a jak se požadavky dostanou do služby AI.

  • Kompatibilní s OpenAI – koncové body jazykového modelu kompatibilní s rozhraním API OpenAI Mezi příklady patří Hugging Face Text Generation Inference (TGI) a Google Gemini API.

    Služba API Management konfiguruje koncový bod dokončení chatu.

  • Passthrough – Koncové body jazykového modelu nejsou kompatibilní s rozhraním API OpenAI. Mezi příklady patří modely nasazené v Amazon Bedrocku nebo jiných poskytovatelích.

    Služba API Management konfiguruje operace se zástupnými znaky pro běžné příkazy HTTP. Klienti můžou přidávat cesty k operacím se zástupnými znaky a služba API Management předává požadavky do backend systému.

Požadavky

  • Existující instance služby API Management. Vytvořte ho, pokud jste to ještě neudělali.
  • Nasazení jazykového modelu v místním prostředí nebo bez Azure s koncovým bodem rozhraní API.

Import rozhraní API jazykového modelu pomocí portálu

Importováním API rozhraní LLM se automaticky konfiguruje:

Chcete-li importovat rozhraní API jazykového modelu:

  1. Na portálu Azure přejděte do instance služby API Management.

  2. V nabídce vlevo v části APIs vyberte APIs>+ Přidat API.

  3. V části Definovat nové rozhraní API vyberte rozhraní API jazykového modelu.

    Snímek obrazovky s vytvořením rozhraní API kompatibilního s OpenAI na portálu

  4. Na kartě Konfigurovat rozhraní API :

    1. Zadejte zobrazovaný název a popis (volitelné).
    2. Zadejte adresu URL rozhraní API LLM.
    3. Vyberte jeden nebo více produktů , které chcete přidružit k rozhraní API (volitelné).
    4. V cestě připojte cestu pro přístup k rozhraní LLM API.
    5. Vyberte buď vytvořit rozhraní API OpenAI, nebo vytvořit propojovací rozhraní API. Viz typy rozhraní API jazykového modelu.
    6. Zadejte název autorizační hlavičky a klíč rozhraní API (v případě potřeby).
    7. Vyberte Další.

    Snímek obrazovky s konfigurací rozhraní API jazykového modelu na portálu

  5. Na kartě Správa spotřeby tokenů zadejte nastavení nebo přijměte výchozí hodnoty pro následující zásady:

  6. Na kartě Použít sémantické ukládání do mezipaměti zadejte nastavení nebo přijměte výchozí hodnoty zásad pro optimalizaci výkonu a snížení latence:

  7. Na kartě AI zabezpečení obsahu zadejte nastavení nebo přijměte výchozí hodnoty pro konfiguraci Azure AI Content Safety pro blokování nebezpečného obsahu:

  8. Vyberte Zkontrolovat.

  9. Po ověření vyberte Vytvořit.

API Management vytvoří rozhraní API a nakonfiguruje operace pro koncové body LLM. Ve výchozím nastavení rozhraní API vyžaduje předplatné služby API Management.

Testování rozhraní LLM API

Ověřte své rozhraní LLM API v testovací konzole.

  1. Vyberte rozhraní API, které jste vytvořili.

  2. Vyberte kartu Test.

  3. Vyberte operaci kompatibilní s nasazením modelu. Zobrazí se pole pro parametry a záhlaví.

  4. Zadejte parametry a záhlaví. V závislosti na operaci podle potřeby nakonfigurujte nebo aktualizujte text požadavku .

    Poznámka:

    Testovací konzole automaticky přidá hlavičku Ocp-Apim-Subscription-Key (použitím integrovaného předplatného se všemi přístupy), což umožňuje přístup ke všem rozhraním API. Pokud ho chcete zobrazit, vyberte ikonu oka vedle požadavku HTTP.

  5. Vyberte Odeslat.

    Pokud je test úspěšný, back-end vrátí data, včetně metrik využití tokenů pro monitorování spotřeby jazykového modelu.

  • Funkce brány AI v Azure API Management