Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
DOTYCZY: Wszystkich poziomów zarządzania API
W tym artykule pokazano, jak zaimportować interfejs API Google Gemini zgodny z platformą OpenAI w celu uzyskania dostępu do modeli, takich jak gemini-2.0-flash. W przypadku tych modeli usługa Azure API Management może zarządzać punktem końcowym uzupełniania czatów zgodnym z interfejsem OpenAI.
Dowiedz się więcej o zarządzaniu interfejsami API sztucznej inteligencji w usłudze API Management:
Wymagania wstępne
- Istniejąca instancja usługi API Management. Utwórz go, jeśli jeszcze tego nie zrobiono.
- Klucz dla interfejsu Gemini API. Jeśli go nie masz, utwórz go w programie Google AI Studio i zapisz go w bezpiecznej lokalizacji.
Importowanie interfejsu API Gemini zgodnego z interfejsem OpenAI przy użyciu portalu
Na portalu Azure przejdź do instancji zarządzania API.
W menu po lewej stronie, w obszarze APIs, wybierz APIs>+ Dodaj API.
W obszarze Definiowanie nowego interfejsu API wybierz pozycję Interfejs API modelu językowego.
Na karcie Konfiguracja API :
Wprowadź nazwę wyświetlaną i opcjonalny opis dla API.
W polu Adres URL wprowadź następujący podstawowy adres URL z dokumentacji zgodności z interfejsem OpenAI Gemini:
https://generativelanguage.googleapis.com/v1beta/openaiW polu Ścieżka dołącz ścieżkę używaną przez wystąpienie usługi API Management do kierowania żądań do punktów końcowych interfejsu API Gemini.
W polu Typ wybierz pozycję Utwórz interfejs API OpenAI.
W polu Klucz dostępu wprowadź następujące informacje:
- Nazwa nagłówka: Autoryzacja.
-
Wartość nagłówka (klucz):
Bearera następnie klucz API Gemini.
Na pozostałych kartach opcjonalnie skonfiguruj zasady do zarządzania użyciem tokenów, buforowaniem semantycznym i bezpieczeństwem zawartości sztucznej inteligencji. Aby uzyskać szczegółowe informacje, zobacz Importowanie interfejsu API modelu językowego.
Wybierz opcję Przejrzyj.
Po zweryfikowaniu ustawień wybierz pozycję Utwórz.
Usługa API Management tworzy interfejs API i konfiguruje następujące elementy:
- Zasób backend i zasada set-backend-service, która kieruje żądania interfejsu API do punktu końcowego Google Gemini.
- Dostęp do zaplecza LLM przy użyciu klucza API Gemini, który podałeś. Klucz jest chroniony jako klucz tajny o nazwie value w usłudze API Management.
- (opcjonalnie) Zasady ułatwiające monitorowanie interfejsu API i zarządzanie nim.
Testowanie modelu Gemini
Po zaimportowaniu interfejsu API możesz przetestować punkt końcowy zakończeń czatu.
Wybierz interfejs API utworzony w poprzednim kroku.
Wybierz kartę Test.
Wybierz operację
POST Creates a model response for the given chat conversation, która jest żądaniemPOSTdo punktu końcowego/chat/completions.W sekcji Treść żądania wprowadź następujący kod JSON, aby określić model i przykładowy monit. W tym przykładzie używany jest model
gemini-2.0-flash.{ "model": "gemini-2.0-flash", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }Po pomyślnym zakończeniu testu zaplecze odpowiada z pomyślnym kodem odpowiedzi HTTP i pewnymi danymi. Dołączane do odpowiedzi to dane użycia tokenu, które ułatwiają monitorowanie użycia tokenów modelu językowego i zarządzanie nim.