Megosztás a következőn keresztül:


Azure AI Foundry API importálása

Minden API-kezelési szintre vonatkozik

Az Azure AI Foundryben üzembe helyezett AI-modellvégpontokat API-kként importálhatja az API Management-példányba. Az AI-átjáróházirendek és más képességek használata az API Managementben az integráció egyszerűsítése, a megfigyelhetőség javítása és a modellvégpontok feletti vezérlés javítása érdekében.

További információ az AI API-k kezeléséről az API Managementben:

Ügyfélkompatibilitási beállítások

Az API Management két ügyfélkompatibilitási lehetőséget támogat az AI API-khoz. Válassza ki a modell üzembe helyezéséhez megfelelő lehetőséget. Ez a beállítás határozza meg, hogy az ügyfelek hogyan hívják meg az API-t, és hogy az API Management-példány hogyan irányítja a kéréseket az AI-szolgáltatáshoz.

  • Azure AI – Az Azure AI Foundryben elérhető modellvégpontok kezelése az Azure AI Model Inference API-val.

    Az ügyfelek meghívják az üzembe helyezést egy /models végponton, például /my-model/models/chat/completions. Az üzembe helyezés neve a kérelem törzsében lesz átadva. Ezt a lehetőséget akkor használja, ha rugalmasan szeretne váltani az Azure AI Model Inference API-val közzétett és az Azure OpenAI-ban az Öntödei modellekben üzembe helyezett modellek között.

  • Azure OpenAI – Az Azure OpenAI-ban üzembe helyezett modellvégpontok kezelése.

    Az ügyfelek meghívják az üzembe helyezést egy /openai végponton, például /openai/deployments/my-deployment/chat/completions. Az üzembe helyezés neve a kérés elérési útján átadódik. Ezt a lehetőséget akkor használja, ha az AI-szolgáltatás csak Az Azure OpenAI-modell üzembe helyezését tartalmazza.

Előfeltételek

  • Egy meglévő API Management-példány. Hozzon létre egyet, amennyiben még nem tette meg.

  • Egy Azure AI-szolgáltatás az előfizetésben egy vagy több üzembe helyezett modellel. Ilyenek például az Azure AI Foundryben vagy az Azure OpenAI-ban üzembe helyezett modellek.

AI Foundry API importálása a portál használatával

Az alábbi lépésekkel importálhat egy AI API-t az API Managementbe.

Az API importálásakor az API Management automatikusan konfigurálja a következőket:

  • Műveletek az API REST API-végpontjaihoz
  • Rendszer által hozzárendelt identitás, amely rendelkezik az AI-szolgáltatás üzembe helyezéséhez szükséges engedélyekkel.
  • Egy háttérerőforrás és egy set-backend-service szabályzat, amely az API-kéréseket az AI-szolgáltatásvégpontra irányítja.
  • A rendszer által a példány számára hozzárendelt felügyelt identitás használatával történő hitelesítés a háttérrendszerhez.
  • (opcionálisan) Szabályzatok az API figyeléséhez és kezeléséhez.

AI Foundry API importálása az API Managementbe:

  1. Az Azure Portalon keresse meg az API Management-példányt.

  2. A bal oldali menü API-k alatt válassza az hozzáadása lehetőséget.

  3. Az Azure-erőforrás létrehozása területen válassza az Azure AI Foundry lehetőséget.

    Képernyőkép egy OpenAI-kompatibilis API portálon való létrehozásáról.

  4. Az AI-szolgáltatás kiválasztása lapon:

    1. Válassza ki azt az előfizetést , amelyben az AI-szolgáltatásokat szeretné keresni. Ha információt szeretne kapni a modell egy szolgáltatásban való telepítéséről, válassza a szolgáltatás neve melletti üzembe helyezési hivatkozást. Képernyőkép egy AI-szolgáltatás üzembe helyezéséről a portálon.
    2. Válasszon ki egy AI-szolgáltatást.
    3. Válassza a Következőlehetőséget.
  5. Az API konfigurálása lapon:

    1. Adja meg az API megjelenítendő nevét és opcionális leírását .

    2. Az Alap elérési úton adjon meg egy elérési utat, amelyet az API Management-példány használ az üzembehelyezési végpont eléréséhez.

    3. Igény szerint válasszon ki egy vagy több, az API-hoz társítandó terméket .

    4. Az ügyfélkompatibilitásban válasszon az alábbiak közül a támogatni kívánt ügyféltípusok alapján. További információkért tekintse meg az ügyfélkompatibilitási beállításokat .

      • Azure OpenAI – Válassza ezt a lehetőséget, ha az ügyfeleknek csak az Azure OpenAI-modell üzembe helyezéséhez kell hozzáférnie.
      • Azure AI – Válassza ezt a lehetőséget, ha az ügyfeleknek más modellekhez kell hozzáférnie az Azure AI Foundryben.
    5. Válassza a Következőlehetőséget.

      Képernyőkép az AI Foundry API-konfigurálásról a portálon.

  6. A Jogkivonat-használat kezelése lapon adja meg a beállításokat, vagy fogadja el azokat az alapértelmezett beállításokat, amelyek a következő szabályzatokat határozzák meg az API figyeléséhez és kezeléséhez:

  7. A Szemantikai gyorsítótárazás alkalmazása lapon adja meg a beállításokat, vagy fogadja el azokat az alapértelmezett beállításokat, amelyek meghatározzák a szabályzatokat az API teljesítményének optimalizálásához és a késés csökkentéséhez:

  8. Az AI-tartalombiztonság esetében adja meg a beállításokat, vagy fogadja el az alapértelmezett beállításokat az Azure AI Content Safety szolgáltatás konfigurálásához a nem biztonságos tartalommal kapcsolatos kérések blokkolásához:

  9. Válassza a Véleményezés lehetőséget.

  10. A beállítások érvényesítése után válassza a Létrehozás lehetőséget.

Az AI API tesztelése

Annak érdekében, hogy az AI API a várt módon működjön, tesztelje azt az API Management tesztkonzolon.

  1. Válassza ki az előző lépésben létrehozott API-t.

  2. Kattintson a Teszt fülre.

  3. Válasszon ki egy olyan műveletet, amely kompatibilis a modell üzembe helyezésével. A lapon a paraméterek és fejlécek mezői láthatók.

  4. Szükség szerint adja meg a paramétereket és a fejléceket. A művelettől függően előfordulhat, hogy konfigurálnia vagy frissítenie kell egy kérelem törzsét.

    Megjegyzés:

    A tesztkonzolon az API Management automatikusan feltölt egy Ocp-Apim-Subscription-Key fejlécet, és konfigurálja a beépített teljes hozzáférésű előfizetés előfizetési kulcsát. Ez a kulcs lehetővé teszi az API Management-példány összes API-jának elérését. Az Ocp-Apim-Subscription-Key fejlécet igény szerint a HTTP-kérés melletti "szem" ikonra kattintva jelenítheti meg.

  5. Válassza a Küldés lehetőséget.

    Ha a teszt sikeres, a háttérrendszer egy sikeres HTTP-válaszkóddal és néhány adattal válaszol. A válaszhoz mellékelt tokenhasználati adatok segítenek a nyelvi modell tokenhasználatának monitorozásában és kezelésében.