Udostępnij za pośrednictwem


Importowanie API usługi Azure AI Foundry

DOTYCZY: Wszystkich poziomów zarządzania API

Punkty końcowe modelu AI wdrożone w Azure AI Foundry można zaimportować do wystąpienia usługi API Management jako API. Użyj zasad bramy sztucznej inteligencji i innych funkcji w usłudze API Management, aby uprościć integrację, zwiększyć czytelność i zwiększyć kontrolę nad punktami końcowymi modelu.

Dowiedz się więcej o zarządzaniu interfejsami API sztucznej inteligencji w usłudze API Management:

Opcje zgodności klienta

Usługa API Management obsługuje dwie opcje zgodności klienta dla interfejsów API sztucznej inteligencji. Wybierz opcję odpowiednią dla wdrożenia modelu. Opcja określa, jak klienci wywołują interfejs API i jak wystąpienie usługi API Management kieruje żądania do usług związanych ze sztuczną inteligencją.

  • Azure AI — zarządzanie punktami końcowymi modelu w rozwiązaniu Azure AI Foundry, które są udostępniane za pośrednictwem interfejsu API wnioskowania modelu AI platformy Azure.

    Klienci odwołują się do wdrożenia w punkcie końcowym /models, takim jak /my-model/models/chat/completions. Nazwa wdrożenia jest przekazywana w treści żądania. Użyj tej opcji, jeśli chcesz elastycznie przełączać się między modelami udostępnianymi za pomocą interfejsu API wnioskowania modelu AI w Azure a tymi wdrożonymi w Azure OpenAI w Foundry Models.

  • Azure OpenAI — zarządzanie punktami końcowymi modelu wdrożonym w usłudze Azure OpenAI.

    Klienci nazywają wdrożenie w punkcie końcowym, /openai takim jak /openai/deployments/my-deployment/chat/completions. Nazwa wdrożenia jest przekazywana w ścieżce żądania. Użyj tej opcji, jeśli usługa sztucznej inteligencji obejmuje tylko wdrożenia modelu Azure OpenAI.

Wymagania wstępne

  • Istniejąca instancja usługi API Management. Utwórz go, jeśli jeszcze tego nie zrobiono.

  • Usługa Azure AI w ramach subskrypcji z wdrożonym co najmniej jednym modelem. Przykłady obejmują modele wdrożone w narzędziu Azure AI Foundry lub Azure OpenAI.

Importowanie interfejsu API usługi AI Foundry przy użyciu portalu

Wykonaj poniższe kroki, aby zaimportować interfejs API AI do usługi API Management.

Podczas importowania interfejsu API usługa API Management automatycznie konfiguruje:

  • Operacje dla poszczególnych punktów końcowych REST API
  • Tożsamość przypisana przez system z niezbędnymi uprawnieniami dostępu do wdrożenia usługi sztucznej inteligencji.
  • Zasób backend i zasadę set-backend-service, które kierują żądania interfejsu API do punktu końcowego usługi AI.
  • Uwierzytelnianie w zapleczu systemowym za pomocą tożsamości zarządzanej przypisanej przez system do wystąpienia.
  • (opcjonalnie) Zasady ułatwiające monitorowanie interfejsu API i zarządzanie nim.

Aby zaimportować AI Foundry API do zarządzania interfejsami API:

  1. Na portalu Azure przejdź do instancji zarządzania API.

  2. W menu po lewej stronie, w obszarze APIs, wybierz APIs>+ Dodaj API.

  3. W obszarze Tworzenie z zasobu platformy Azure wybierz pozycję Azure AI Foundry.

    Zrzut ekranu przedstawiający tworzenie interfejsu API zgodnego z interfejsem OpenAI w portalu.

  4. Na karcie Wybierz usługę AI :

    1. Wybierz subskrypcję , w której chcesz wyszukać usługi sztucznej inteligencji. Aby uzyskać informacje o wdrożeniach modelu w usłudze , wybierz link wdrożenia obok nazwy usługi. Zrzut ekranu przedstawiający wdrożenia usługi sztucznej inteligencji w portalu.
    2. Wybierz usługę sztucznej inteligencji.
    3. Wybierz Dalej.
  5. Na karcie Konfiguracja API :

    1. Wprowadź nazwę wyświetlaną i opcjonalny opis dla API.

    2. W ścieżce podstawowej wprowadź ścieżkę używaną przez wystąpienie usługi API Management w celu uzyskania dostępu do punktu końcowego wdrożenia.

    3. Opcjonalnie wybierz co najmniej jeden produkt do skojarzenia z interfejsem API.

    4. W obszarze Zgodność klienta wybierz jedną z następujących opcji na podstawie typów klientów, które mają być obsługiwane. Aby uzyskać więcej informacji, zobacz Opcje zgodności klienta .

      • Azure OpenAI — wybierz tę opcję, jeśli klienci muszą uzyskiwać dostęp tylko do wdrożeń modeli usługi Azure OpenAI.
      • Azure AI — wybierz tę opcję, jeśli klienci muszą uzyskać dostęp do innych modeli w usłudze Azure AI Foundry.
    5. Wybierz Dalej.

      Zrzut ekranu przedstawiający konfigurację interfejsu API rozwiązania AI Foundry w portalu.

  6. Na karcie Zarządzanie użyciem tokenu opcjonalnie wprowadź ustawienia lub zaakceptuj wartości domyślne, które definiują następujące zasady, aby ułatwić monitorowanie interfejsu API i zarządzanie nim:

  7. Na karcie Zastosuj buforowanie semantyczne opcjonalnie wprowadź ustawienia lub zaakceptuj ustawienia domyślne, które definiują zasady, aby pomóc zoptymalizować wydajność i zmniejszyć opóźnienie dla interfejsu API:

  8. W Bezpieczeństwo Zawartości AI możesz wprowadzić ustawienia lub zaakceptować wartości domyślne, aby skonfigurować usługę Azure AI Content Safety do blokowania treści z niebezpieczną zawartością.

  9. Wybierz opcję Przejrzyj.

  10. Po zweryfikowaniu ustawień wybierz pozycję Utwórz.

Testuj API sztucznej inteligencji

Aby upewnić się, że interfejs API sztucznej inteligencji działa zgodnie z oczekiwaniami, przetestuj go w konsoli testowej usługi API Management.

  1. Wybierz interfejs API utworzony w poprzednim kroku.

  2. Wybierz kartę Test.

  3. Wybierz operację zgodną z wdrożeniem modelu. Na stronie są wyświetlane pola parametrów i nagłówków.

  4. Wprowadź parametry i nagłówki zgodnie z potrzebami. W zależności od operacji może być konieczne skonfigurowanie lub zaktualizowanie treści żądania.

    Uwaga / Notatka

    W konsoli testowej usługa API Management automatycznie wypełnia nagłówek Ocp-Apim-Subscription-Key i konfiguruje klucz subskrypcji dla wbudowanej subskrypcji o pełnym dostępie. Ten klucz umożliwia dostęp do wszystkich interfejsów API w instancji zarządzania API. Opcjonalnie wyświetl nagłówek Ocp-Apim-Subscription-Key, wybierając ikonę "oko" znajdującą się obok żądania HTTP.

  5. Wybierz Wyślij.

    Po pomyślnym zakończeniu testu zaplecze odpowiada z pomyślnym kodem odpowiedzi HTTP i pewnymi danymi. Dołączane do odpowiedzi to dane użycia tokenu, które ułatwiają monitorowanie użycia tokenów modelu językowego i zarządzanie nim.