Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
DOTYCZY: Wszystkich poziomów zarządzania API
Punkty końcowe modelu języka zgodne z OpenAI można zaimportować do instancji zarządzania API jako interfejsy API. Na przykład możesz chcieć zarządzać własnym hostem usługi LLM lub hostowanym u dostawcy wnioskowania innego niż usługi Azure AI. Użyj zasad bramy sztucznej inteligencji i innych funkcji w usłudze API Management, aby uprościć integrację, zwiększyć czytelność i zwiększyć kontrolę nad punktami końcowymi modelu.
Dowiedz się więcej o zarządzaniu interfejsami API sztucznej inteligencji w usłudze API Management:
Typy interfejsów API modelu języka
Usługa API Management obsługuje dwa typy interfejsów API modelu językowego dla tego scenariusza. Wybierz opcję odpowiednią dla wdrożenia modelu. Opcja określa, jak klienci wywołują interfejs API i jak wystąpienie usługi API Management kieruje żądania do usług związanych ze sztuczną inteligencją.
Zgodne z interfejsem OpenAI — punkty końcowe modelu języka zgodne z interfejsem API openAI. Przykłady obejmują niektóre modele ujawnione przez dostawców wnioskowania, takich jak Hugging Face Text Generation Inference (TGI).
Usługa API Management konfiguruje punkt końcowy uzupełniania czatów zgodny z interfejsem OpenAI.
Passthrough — inne punkty końcowe modelu językowego, które nie są zgodne z interfejsem API OpenAI. Przykłady obejmują modele wdrożone w usłudze Amazon Bedrock lub innych dostawców.
API Management konfiguruje operacje z użyciem symboli wieloznacznych dla typowych czasowników HTTP. Klienci mogą dołączać ścieżki do operacji z symbolami wieloznacznymi, a usługa API Management przekazuje żądania do zaplecza.
Wymagania wstępne
- Istniejąca instancja usługi API Management. Utwórz go, jeśli jeszcze tego nie zrobiono.
- Wdrożenie modelu językowego, które jest hostowane samodzielnie lub nie jest dostarczane przez platformę Azure, z punktem końcowym interfejsu API.
Importowanie interfejsu API modelu językowego przy użyciu portalu
Aby zaimportować interfejs API modelu językowego do usługi API Management:
Na portalu Azure przejdź do instancji zarządzania API.
W menu po lewej stronie, w obszarze APIs, wybierz APIs>+ Dodaj API.
W obszarze Definiowanie nowego interfejsu API wybierz pozycję Interfejs API modelu językowego.
Na karcie Konfiguracja API :
- Wprowadź nazwę wyświetlaną i opcjonalny opis dla API.
- Wprowadź adres URL punktu końcowego API LLM.
- Opcjonalnie wybierz co najmniej jeden produkt do skojarzenia z interfejsem API.
- W polu Ścieżka dołącz ścieżkę używaną przez wystąpienie usługi API Management do uzyskiwania dostępu do punktów końcowych interfejsu API LLM.
- W Typie wybierz pozycję Create OpenAI API (Utwórz interfejs API OpenAI) lub Create a passthrough API (Utwórz interfejs API przekazywania). Aby uzyskać więcej informacji, zobacz Typy interfejsów API modelu języka .
- W polu Klucz dostępu wprowadź nazwę nagłówka autoryzacji i klucz interfejsu API używany do uzyskiwania dostępu do interfejsu API LLM, jeśli jest to wymagane.
- Wybierz Dalej.
Na karcie Zarządzanie użyciem tokenu opcjonalnie wprowadź ustawienia lub zaakceptuj wartości domyślne, które definiują następujące zasady, aby ułatwić monitorowanie interfejsu API i zarządzanie nim:
Na karcie Zastosuj buforowanie semantyczne opcjonalnie wprowadź ustawienia lub zaakceptuj ustawienia domyślne, które definiują zasady, aby pomóc zoptymalizować wydajność i zmniejszyć opóźnienie dla interfejsu API:
W Bezpieczeństwo Zawartości AI możesz wprowadzić ustawienia lub zaakceptować wartości domyślne, aby skonfigurować usługę Azure AI Content Safety do blokowania treści z niebezpieczną zawartością.
Wybierz opcję Przejrzyj.
Po zweryfikowaniu ustawień wybierz pozycję Utwórz.
Testowanie interfejsu API LLM
Aby upewnić się, że interfejs API LLM działa zgodnie z oczekiwaniami, przetestuj go w konsoli testowej usługi API Management.
Wybierz interfejs API utworzony w poprzednim kroku.
Wybierz kartę Test.
Wybierz operację zgodną z wdrożeniem modelu. Na stronie są wyświetlane pola parametrów i nagłówków.
Wprowadź parametry i nagłówki zgodnie z potrzebami. W zależności od operacji może być konieczne skonfigurowanie lub zaktualizowanie treści żądania.
Uwaga / Notatka
W konsoli testowej usługa API Management automatycznie wypełnia nagłówek Ocp-Apim-Subscription-Key i konfiguruje klucz subskrypcji dla wbudowanej subskrypcji o pełnym dostępie. Ten klucz umożliwia dostęp do wszystkich interfejsów API w instancji zarządzania API. Opcjonalnie wyświetl nagłówek Ocp-Apim-Subscription-Key, wybierając ikonę "oko" znajdującą się obok żądania HTTP.
Wybierz Wyślij.
Po pomyślnym zakończeniu testu zaplecze odpowiada z pomyślnym kodem odpowiedzi HTTP i pewnymi danymi. Dołączane do odpowiedzi to dane użycia tokenu, które ułatwiają monitorowanie użycia tokenów modelu językowego i zarządzanie nim.
Treści powiązane
- Ograniczenia importu interfejsu API
- Importowanie specyfikacji interfejsu OpenAPI
- Importuj API SOAP
- Importowanie interfejsu API protokołu SOAP i przekształcenie go na interfejs API REST
- Importowanie API usługi aplikacji
- Importowanie interfejsu API aplikacji kontenera
- Importuj WebSocket API
- Zaimportuj GraphQL API
- Importowanie schematu GraphQL i konfigurowanie rozpoznawania pól
- Zaimportuj API aplikacji funkcji
- Importowanie interfejsu API aplikacji logicznej
- Importowanie usługi Service Fabric
- Importowanie interfejsu API usługi Azure AI Foundry
- Importowanie interfejsu API usługi Azure OpenAI
- Importowanie interfejsu API LLM
- Importowanie interfejsu API OData
- Importowanie metadanych sap OData
- Zaimportuj API gRPC
- Edytowanie interfejsu API